Aller au contenu
Entretiens

Un entretien avec Éric Sadin

Tu as participé au Salon du livre de Montréal pour y présenter le deuxième numéro de la revue : éc/art S : dont tu es le fondateur; quelle a été la réception de ce numéro spécial « textualités & nouvelles technologies » ? – Est-ce que le milieu littéraire québécois te semble bien branché sur ces nouveaux courants artistiques ?

Éric Sadin : La réaction a été très enthousiaste, mais elle s’est davantage manifestée de la part du milieu artistique que par les auteurs que j’ai, par ailleurs, peu rencontrés. En outre, j’ai été frappé par l’indifférence du Salon du livre de Montréal à l’égard des transformations éditoriales et compositionnelles dues au numérique, et de l’avènement de plusieurs standards de e-books, et ce contrairement au Salon du livre de Paris (mars 2000). Cependant beaucoup de Québécois et de Canadiens travaillent sur les problématiques liées à la numérisation des fonds, aux droits d’auteur, à l’incidence du livre électronique, de l’Internet sur la composition littéraire, sur les nouveaux modes de lecture etc. Le monde de l’art m’a semblé autrement plus ouvert et intéressé par ces problématiques; les auteurs, du moins ceux que j’ai rencontrés, semblent très éloignés de ces champs d’investigation. Ce sont plutôt les chercheurs québécois qui explorent la portée des conséquences du numérique sur les effets de transformation de nos rapports au texte et des pratiques poétiques et littéraires. J’ai vécu cette situation comme un paradoxe.

Les écrivains électroniques et hypertextuels sont-ils perçus comme une sous-classe littéraire par le mainstream de la littérature française ?

Le milieu littéraire français dans son ensemble, ne saisit pas très bien l’ampleur des transmutations contemporaines qui affectent les conditions générales de nos rapports au texte et plus largement encore au langage. Il continue de croire à la valeur de romans de type balzacien, ou d’ouvrages aux structures générales extrêmement académiques (narration, fiction, perrsonnages, psychologie, début, milieu, fin…, bref des principes qui ne cessent de perdurer à l’identique depuis au moins l’après-guerre).

En ce qui concerne l’hypertexte en France, je suis attentif à ce qui s’expose sur les réseaux et suis extrêmement sceptique. Une des exigences capitales à mes yeux est trop souvent occultée, celle de la spécificité des principes compositionnels et perceptifs en rapport avec la configuration propre des outils à l’intérieur desquels ils s’inscrivent. Il ne s’agit pas simplement de créer des rhizomes et de cliquer de textes en textes, mais d’inscrire la syntaxe, la structure générale d’un texte, à l’intérieur de modalités démultipliées, superposées, ramifiées, qui découvrent de nouvelles connexions entre grammaire, indices référentiels, modalités perceptives et interventionnelles… Bref de mettre la langue elle-même, certains de ses usages supposés enregistrés, sous régimes hypertextuels – radicalement distincts. La question majeure est celle de la structuration des formes en rapport avec la configuration singulière de l’instrument ou du système utilisé. Ce sont là des enjeux décisifs qui, de mon point de vue, ne sont pas assez pris en compte en France et ailleurs. Il ne suffit pas d’utiliser naïvement des technologies contemporaines, il faut surtout saisir l’extrême complexification des enjeux épistémologiques, culturels, esthétiques, induits par la prolifération technologique, qui appelle des stratégies informées à la mesure de la complexité contemporaine.