Aller au contenu

Classiques Garnier

Actes Lectures et repères

  • Type de publication : Article de revue
  • Revue : Études digitales
    2016 – 2, n° 2
    . Le gouvernement des données
  • Auteurs : Khatchatourov (Armen), Alombert (Anne), Chauveau (Carmina), Breuil (Eddie), Gilbert (Nathanaël)
  • Pages : 277 à 290
  • Revue : Études digitales
  • Thème CLIL : 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
  • EAN : 9782406070641
  • ISBN : 978-2-406-07064-1
  • ISSN : 2497-1650
  • DOI : 10.15122/isbn.978-2-406-07064-1.p.0277
  • Éditeur : Classiques Garnier
  • Mise en ligne : 12/08/2017
  • Périodicité : Semestrielle
  • Langue : Français
277

ACTES

Lectures et repères

Peut-on mettre la main sur les algorithmes ?

Sur la culture algorithmique de Dourish

Paul Dourish, Algorithms and their others : Algorithmic culture in context. Big Data & Society, Vol 3, Issue 2, SAGE, 2016.

Ces derniers temps la question des algorithmes a fait couler beaucoup dencre. Après les NBIC, le web 2.0, les « Big Data », les « plateformes », on peut certainement voir ici un effet de mode. Il nen reste pas moins que les algorithmes et lautomatisation quils induisent constituent un véritable enjeu, comme le montre tout un ensemble de travaux sur les conséquences sociétales de lutilisation de plus en plus extensive des algorithmes logiciels. À ce titre, un effort de clarification conceptuelle et systématique sur ce que sont les algorithmes est aujourdhui plus que bienvenu, et cest à cette tâche que larticle de Dourish semploie – mais son apport principal nous semble être ailleurs.

Le point de départ se trouve dans la fameuse formule donnée par Wirth en 1975 (« algorithms + data structures = programs ») qui reflète linterdépendance entre les algorithmes et les données, interdépendance sur laquelle reposent, comme les informaticiens le savent très bien, les entités opérantes que sont les programmes. En sappuyant sur les réalités techniques plus contemporaines, et en passant en examen les différentes « altérités » des algorithmes (automatisation, code, architecture, matérialisation), Dourish montre comment cette interdépendance induit des effets peu connus mais qui ne sont pas pour autant moins opérants : loin de la simple reproductibilité du même, les résultats du traitement dépendent du code utilisé, de 278larchitecture éventuellement distribuée, des supports matériels de lexécution, etc.

Ajoutons ici que lon commence aujourdhui à prendre la mesure de cette interdépendance qui sest sans doute renforcée depuis Wirth, comme lillustre lapprentissage machine (machine learning) où le résultat du traitement algorithmique est dépendant du jeu des données mis à disposition et à partir duquel lapprentissage a été effectué. Ajoutons que, à un certain niveau de description, les données elles-mêmes dépendent des algorithmes « intermédiaires » à laide desquels elles sont obtenues (récoltées, re-échantillonnées, voire « simulées »).

Lopacité des algorithmes ne relève alors pas du simple secret des affaires ou du code fermé et/ou propriétaire. Il y a ici sans doute une opacité fondamentale dont la prise en compte remet en question laspiration un peu naïve à la transparence. À ce titre, le concepteur lui-même est parfois surpris par le résultat obtenu suite à lexécution de lalgorithme. Et on pourrait nourrir le débat sur la transparence ou la « maitrise » avec des éléments conceptuels en provenance dun domaine malheureusement trop peu connu de « compuational creativity » (où les « algorithmes » sont par exemple employés dans un robot qui fait de la peinture ou compose de la musique).

Tout dépend donc de ce que lon veut faire entendre par lalgorithme, quel rôle on veut lui faire jouer et dans quel contexte. Cest là que la démarche « ethnographique » de Dourish prend tout son sens : dans sa définition même, lalgorithme est essentiellement dépendant du contexte – social, professionnel, politique – dans lequel cette définition prend place. Il est à ce titre une narration – dans le sens où il met en place et projette un récit (de catégorisation, dattribution de crédit bancaire, de « ranking » des sites) qui ne peut être compris quen faisant entrer dans léquation le narrateur (le concepteur, le responsable de traitement, etc.) et lobservateur (linstance de laudit ou simplement lutilisateur). Ces dualités bien connues des sciences humaines et sociales – celles du faire et du dire, de lénoncé et de lénonciateur – doivent être prises en compte sur le terrain où tout est supposé être procédure, calcul et objectivité. Car les algorithmes sont dans une large mesure inscrutables en eux-mêmes, et il convient sans doute de prendre la juste mesure de ce constat. La simple transparence des algorithmes, si lon entend par là un audit formel, risque de se révéler un leurre qui passe sous silence ce que lon cherche justement 279à saisir : les nouvelles conditions de narration de l« éphémère », de la fiction à lœuvre et qui constitue le monde « algorithmique » à venir.

Professeur dinformatique à University of California, Irvine, lauréat du prix CSCW 2016 « Lasting Impact », Paul Dourish travaille à lintersection entre linformatique et les sciences humaines et sociales, dans les domaines de « privacy », HCI et CSCW. Il est en particulier attentif aux approches ethnographiques au design des systèmes. Après Where the Action Is : The Foundations of Embodied Interaction1, Divining a Digital Future : Mess and Mythology in Ubiquitous Computing2, il signe The Stuff of Bits : An Essay on the Materialities of Information3 en mai 2017.

Armen Khatchatourov

Télécom École de Management

Institut Mines-Télécom

*
* *
Le travail, cest pas automatique !

Bernard Stiegler, La Société automatique. T. 1 Lavenir du travail, Paris, Fayard, 2015. ISBN : 978-2213685656

Ce livre souvre sur la situation durgence dans laquelle se trouvent aujourdhui les sociétés de plus en plus automatisées, frappées par la disparition progressive des emplois qui se combine à laggravation de la catastrophe environnementale amorcée depuis la révolution industrielle et le début de lAnthropocène. Bernard Stiegler fait de cette situation 280concrète un problème philosophique : celui du passage à une nouvelle époque qui se produit toujours à partir dun choc technologique et selon une double « épokhè ». Toute transformation technologique commence par suspendre les automatismes sociaux et les savoirs constitutifs dune époque via la mise en place dautomatismes techniques a-sociaux auxquels les individus sadaptent sans pour autant les adopter. Dans un second temps, les individus psychiques constituent de nouvelles organisations sociales et de nouveaux savoir-faire, savoir-vivre et savoir-penser, qui sont autant de manières dadopter le nouveau milieu technique en le désautomatisant.

La constitution de ces nouveaux savoirs suppose néanmoins que sélaborent une connaissance et une réflexion collective autour des enjeux épistémiques, économiques, psychiques et sociaux du nouveau milieu mnémotechnique. Or, selon Stiegler, laccélération des innovations technologiques court-circuite aujourdhui les temps de délibération essentiels à tout débat public et rationnel. Elle empêche ainsi les individus denvisager collectivement les thérapeutiques sociales et politiques susceptibles de remédier aux effets toxiques du pharmakon numérique. Le passage au deuxième temps constitutif dune époque ne peut pas sopérer. Cest pourquoi Stiegler décrit le stade actuel de lAnthropocène comme une absence dépoque et pose, avec cet ouvrage, les conditions de possibilité dun changement dépoque. Tout en montrant pourquoi elles ne sont pas réunies aujourdhui, Stiegler explique quil est nécessaire et possible dinverser le processus à lœuvre.

Les premiers chapitres sont consacrés à lanalyse du fonctionnement du système technique numérique et à ses effets psychiques et politiques. Les travaux de Foucault sur les technologies de pouvoir ou de Deleuze sur les sociétés de contrôle sont réinterprétés par Stiegler afin de penser lhypercontrôle qui sexerce dans les environnements connectés. Les réflexions de Leroi-Gourhan, Gilles ou Simondon sont également mobilisées pour penser lautomatisation, la numérisation et leurs enjeux épistémiques et sociétaux. Stiegler soutient que le fonctionnement actuel des technologies numériques, au service de la data economy, tend à détruire les processus de transindividuation psycho-sociale. À travers la collecte de leurs traces et la génération automatique de leurs profils, les individus sont soumis aux injonctions des algorithmes qui ne leur laissent plus le temps de former des désirs et des projets singuliers. Au 281contraire, le système technique exploite leurs pulsions, engendrant ainsi des comportements réflexes ou mimétiques de consommation. Les énergies psychiques des individus se voient intégrées au fonctionnement du système technique. Les actes singuliers et imprévisibles sont contraints de se conformer à des standards comportementaux calculables. La tension dynamique entre le collectif et le psychique est alors éliminée, ce qui empêche leur individuation réciproque. Or, le système technique lui-même ne peut évoluer et se renouveler quen sappuyant sur les inventions des individus psychiques organisés en systèmes sociaux : il tend ainsi à son propre anéantissement.

Afin dinverser cette tendance entropique, une ré-articulation entre système technique et systèmes sociaux apparaît nécessaire. Dans un second temps, Stiegler sattache donc à penser un modèle économique viable et producteur de néguentropie, cest-à-dire dorganisation, de structures ou de règles métastables. Il soutient que la disparition progressive de lemploi salarié due à la généralisation de lautomatisation pourrait constituer une chance, à condition de redistribuer équitablement aux citoyens le temps rendu disponible. Il sagirait de donner aux individus la possibilité de développer et dexercer capacités et savoirs au sein de projets collectifs socialement utiles. Capacités et savoir qui seraient dès lors valorisés par un revenu contributif. Une telle proposition suppose néanmoins de réinterpréter les réflexions de Marx sur le travail et la valeur afin denvisager les conditions dun processus de « déprolétarisation ». Le travail ainsi repensé repose sur la transmission et la transformation de savoirs, qui ne peuvent circuler entre les individus que grâce au milieu mnémotechnique qui les supporte. Cest pourquoi Stiegler affirme la nécessité de transformer les architectures de réseaux pour faire du web un support hypomnésique permettant le partage et la production de savoirs, via des communautés de pairs, de chercheurs ou damateurs. Au lieu dinstrumenter un dispositif de contrôle, le milieu numérique pourrait alors devenir un espace de controverses argumentées et de conflits dinterprétation qui sont constitutifs du débat public et de la communauté politique.

À condition de repenser les notions de travail et de droit sur la base dune conception organologique de la technique, il semble donc possible danalyser les « dissociétés » automatiques de lAnthropocène, et denvisager leur avenir comme sociétés contributives au sein du 282« Néguanthropocène ». La question de la différenciation de lavenir dans le devenir entropique de lunivers conduit Stiegler à rouvrir celle des rapports entre entropie et néguentropie. La néguentropie désigne lévolution de la vie, comprise comme un processus retardant la dissipation inéluctable de lénergie à travers la formation de structures et dorganisations. Stiegler envisage les nouveaux types dorganisations et les nouvelles vitesses dévolution à lœuvre dans la forme technique de la vie, à la fois amplificatrice dentropie et de néguentropie. Selon la manière dont ils prennent soin de leurs organes artificiels à travers leurs organisations sociales, les individus psychiques peuvent, soit précipiter indifféremment le déchaînement entropique, soit, au contraire, le différer en polarisant le devenir des faits vers un droit, une théorie, un idéal – toujours à venir. Cest cette potentialité « néguanthropique » des vivants exosomatiques qui conduit Stiegler à avancer le projet dune « néguanthropologie » dont lélaboration se poursuit dans Dans la disruption. Comment ne pas devenir fou ? paru en mai 20164.

Bernard Stiegler est philosophe, directeur de lInstitut de Recherche et dInnovation et président de lassociation Ars Industrialis. Il est notamment lauteur de La technique et le temps, et de nombreux ouvrages concernant les enjeux psychiques, sociaux, économiques et politiques des transformations technologiques contemporaines.

Anne Alombert

Université Paris Nanterre

283

*
* *
Le mirage de lépanouissement

Evgeny Morozov, Le mirage numérique – pour une politique du Big Data. trad. Pascale Hass, Les prairies ordinaires, 2015, Paris. ISBN : 978-2-35096-113-2

De conférences en éditoriaux, darticles scientifiques en essais, saffinent les charges quEvgeny Morozov formule à lencontre de la Silicon Valley. Dans son dernier ouvrage, le chercheur et essayiste ajuste le point de mire. Il ne sagit plus, comme dans The Net Delusion publié en 2011, de dénoncer « la face cachée » dun Internet qui, à rebours du cyber-utopisme, sert la répression politique via la surveillance de masse ou la manipulation des opinions. Il ne sagit pas plus dinvalider le « solutionnisme » naïf qui peine à voir combien le numérique est une question politique, socio-économique et culturelle, comme dans Pour tout résoudre cliquer ici. Morozov ajuste la focale pour que saffirment, enfin, les contours dune intuition restée floue et implicite : lutopie technologique est au service de la domination néolibérale des États-Unis quil convient de combattre par la mise en place dune « politique du Big Data ».

Celle-ci est présentée, par Morozov, comme une urgence intellectuelle et démocratique. Elle doit répondre au discours qui fait de la gouvernance de nos vies par les algorithmes une évidence, discours qui sest déjà insinué très loin sur le plan épistémologique comme idéologique. Cette épistémologie simpliste portée par la Silicon Valley enjoint denregistrer le moindre clic, de stocker les données et de laisser les algorithmes calculer leurs corrélations sans le réquisit daucune hypothèse. Elle se complète par la diffusion insidieuse dune pensée unique qualifiée par Morozov de solutionniste. Relayée par la NSA et Wall Street, celle-ci se propage dautant plus efficacement quelle est portée par une technostructure dont le masque de pseudo-liberté dissimule les intentions. La contagion se propage, selon Morozov, à léchelle mondiale, sans épargner lEurope qui ne parvient pas à concevoir dautres modèles que celui des GAFA alors quelle est « capable de construire des avions qui rivalisent avec Boeing ». Cependant, le véritable problème nest pas tant daméliorer 284loutil, ni de loffrir au plus grand nombre, que de faire en sorte quil serve à éradiquer la pauvreté et les inégalités. Et lurgence est dautant plus grande que lidéologie techniciste néolibérale atteint maintenant des domaines tels que léducation, la santé, les loisirs, les assurances, le travail.

Morozov sattarde particulièrement sur létude de ce dernier domaine. Il dénonce les promesses de léconomie collaborative, qui nous enjoignent de louer ou de renoncer à la propriété de nos voitures, de nos appartements ou de nos outils. Elles nous entraînent tout autant à vendre notre temps libre au plus offrant. Morozov nous décrit ainsi en prestataires intermittents de nos ressources mises aux enchères via la cession de nos données contre un rabais ou un gain de temps. Dans ce processus, nous sommes amenés à renoncer à lintimité contre un libre arbitre de façade. Ce que nous désignons en France par le néologisme « ubérisation », Morozov le voit comme un avatar de la prolétarisation, simple déplacement de lhorizon dégalité : une pause dans la lutte des classes, cette « imperfection dordre technologique [quun] smartphone corrigera aisément ». Pour autant, Morozov nest pas technophobe. Son véritable ennemi nest pas la technologie, mais le régime politique et économique qui laccompagne : un « hallucinant mélange où le complexe militaro-industriel côtoie un système bancaire hors de contrôle et un secteur publicitaire qui lest tout autant ». Morozov se dit progressiste. Humaniste, il invoque des « technologies qui seront vouées à créer les conditions idéales de lépanouissement humain ». Peut-être même est-il enclin à partager la colère des pionniers du web face à son évolution. Mais il les incite à réorienter leur colère contre une gauche qui na pas su proposer de politiques susceptibles de contrecarrer le discours de la Silicon Valley.

Morozov en appelle à la réunion dune communauté de chercheurs spécialisés dans les médias, les arts, léconomie, la politique et les sciences sociales. Ils doivent sortir de leur torpeur pour mettre un terme au « rétrécissement de limaginaire politique » qui ne permet pas de comprendre la domination à lœuvre. Car, ce que lon a cru ériger comme « le débat sur le numérique », écrit-il, est dans son ensemble indigent, incapable de saisir les réels problèmes posés par la technostructure hégémonique. À ce titre, Morozov puise résolument dans des références qui peuvent sembler relativement lointaines du numérique telles que G. Agamben, 285R. Bodei, G. Deleuze, M. Foucault, K. Marx, Y. Strengers. De la sorte, Morozov estime dévoiler un problème véritablement nouveau. Un problème étouffé par le débat sur le numérique et sur ses outils qui a passé sous silence « les systèmes sociaux, politiques et économiques que ces outils favorisent ou excluent ». Il ambitionne ainsi de déconstruire le « conte de fées » et les « fables utopiques », dintercepter la « baguette magique », de mettre à nu le « fétiche ». Armée dune ironie acerbe Morozov nous éveille salutairement de lapathie qui a gagné nos organismes multiconnectés.

Chercheur invité par lUniversité Stanford en Californie, Evgeny Morozov donne parallèlement des conférences, anime les rubriques Media de différents blogs et ONG, et tient des colonnes dans de nombreux journaux américains et européens. Depuis 2013, il est doctorant en Histoire des sciences à luniversité de Harvard. Il a publié trois essais : The Net Delusion : The Dark Side of Internet Freedom publié en 2011 ; To Save Everything, Click Here : Technology, Solutionism, and the Urge to Fix Problems that Dont Exist en 2013, et Le mirage numérique : Pour une politique du Big Data en 2015.

Carmina Chauveau

Université de Nantes

*
* *
Sur les traces de lauteur

Yan Brailowsky, « Shakespeare, Molière et les autres : lattribution dauteur à lheure du numérique » Critique, no 819-820.

Dans cet article, Yan Brailowsky analyse le recours aux techniques numériques dans le cadre des controverses liées à lattribution des œuvres. Le numérique a montré ses limites dans son rêve de trouver le code génétique des auteurs : « aucun algorithme nest pour le moment capable de fournir des preuves irréfutables », écrit Yan Brailowsky. De 286notre point de vue la limitation des algorithmes nest pas que temporaire. En effet, les critères dattribution des œuvres, même sils relèvent principalement du contexte, du registre ou du genre, sont non pas seulement nombreux mais extensibles. Dailleurs, Brailowsky lui-même prend judicieusement soin de rappeler que la notion dauteur en tant que telle est problématique, et ce dautant plus à lépoque élisabéthaine, celle du théâtre de Shakespeare, où elle nengage pas les mêmes enjeux quactuellement.

Yan Brailowsky estime que lanalyse systématisée des mots-outils dans le cadre de lexamen de la langue des œuvres permet daffiner une recherche de paternité. Les études correspondantes sappuient sur des bases de données riches et parfois interopérables (même si de nombreuses bases de données ne sont disponibles que sur microfiches). De nombreux travaux ont été réalisés sur le sujet, et on se référera utilement à ceux du linguiste Étienne Brunet. La fiabilité de la méthode est généralement vantée sur la base dun pourcentage élevé déléments discriminants permettant de différencier deux auteurs. Yan Brailowsky invite néanmoins à considérer certaines conclusions tirées de ces études avec prudence : elles pourraient être émaillées derreurs de méthode et de calcul. La querelle de paternité autour des œuvres de Molière est un exemple fameux des résultats contradictoires quobtiennent les spécialistes en lexicométrie. Nous aimerions évoquer dautres limites. La constitution du corpus peut être naturellement biaisée par le manque de connaissances philologiques. Au-delà, et dun point de vue strictement méthodologique, le but de lanalyse lexicométrique est-il de déterminer une attribution ou, au contraire, de rejeter une attribution grâce, en particulier, à la mise évidence des anachronismes ?

Yan Brailowsky relativise lapport du numérique, qui « na pas bouleversé le paysage ni contredit les résultats obtenus par lanalyse qualitative, érudite ou philologique » mais qui a montré un déplacement du débat des attributions. Celui-ci ne se déroule plus entre spécialistes et universitaires, mais sur la Toile, sadressant de fait à un vaste public. Le risque est alors que les médias suggèrent à quelques universitaires les débats qui devraient être les leurs. Il est regrettable que lauteur ne se soit intéressé, dans cet article, quà des affaires de paternité fortement médiatisées et reposant sur des bases peu solides, et non à dautres qui ont principalement été destinées à des médias universitaires (plusieurs textes de Paul Scarron, 287les Lettres portugaises, ou les textes copiés de deux mains et regroupés sous le titre Illuminations attribués par erreur, et sans son autorisation, à Arthur Rimbaud). Car un des effets pernicieux de lemballement pour le numérique a été de faire oublier les techniques éprouvées de lattribution. En effet, le numérique a été essentiellement utilisé dans le cadre de la critique interne (lexamen du texte), qui ne prouve rien en elle-même mais a pour objectif principal de confirmer ce que la critique externe révèle via lexamen des témoignages, humains et matériels. Nombreux sont ceux qui, oubliant cette complémentarité, commencent de façon absurde par la critique interne, voire nutilisent que celle-ci, pour tenter de désattribuer la paternité des œuvres. En effet, en ne se fondant que sur cette critique interne, quiconque pourrait prétendre que le style de lauteur dAndromaque ne se retrouve pas dans celui de lauteur des Plaideurs, ou que le poète Mallarmé nest pas lauteur des Mots anglais.

En ayant en tête cette nécessaire complémentarité entre critiques externe et interne, les chercheurs pourraient plus facilement se désintéresser des « affaires » qui reposent souvent sur une théorie du complot ou sur un éventuel mensonge. De manière concomitante, les études digitales mériteraient de se focaliser aussi sur la critique externe. En effet, le formidable potentiel indexatoire du numérique en facilite le déploiement grâce à la constitution de bases de données regroupant des témoignages de première main, comme autant de pièces dun inestimable intérêt pour instruire la paternité des œuvres et éviter certaines affaires aussi médiatiques quinutiles.

Yan Brailowsky enseigne lhistoire et la littérature anglaise de la première modernité à lUniversité Paris Ouest Nanterre depuis 2008. Ses travaux portent sur les rapports entre théâtre et politique, théâtre et historiographie ainsi que sur les querelles religieuses. Il travaille actuellement sur les personnages controversés de reines meurtrières dans le théâtre des années 1550-1620. Il est également Secrétaire de la Société Française Shakespeare.

Eddie Breuil

IUT2 de Grenoble

288

*
* *
Écritures numériques, écritures littéraires ?

Serge Bouchardon, La valeur heuristique de la littérature numérique. Hermann, 2014. ISBN : 9782705688028

Universitaire, mais aussi auteur, Serge Bouchardon se propose, avec cet ouvrage dense, de mettre en perspective la notion de littérature numérique (LN) sous un triple questionnement articulé autour du rapport entre le numérique et la création littéraire : quoffre le numérique à la création littéraire ? Que nous apprend le numérique sur la création littéraire ? Que nous enseigne en retour cette nouvelle forme de littérature sur lécriture numérique ?

Quil sagisse de textes générés par des algorithmes, de travaux combinatoires, de récits hypertextuels, de poésies animées ou de compositions transmédia, les œuvres littéraires numériques constituent un corpus hétérogène dont les frontières indéfinies représentent un défi de taille pour la critique traditionnelle comme pour le public qui peine la plupart du temps à y voir de la « littérature au sens strict ». Comment penser des œuvres dépourvues de texte apparent comme My Google Body, des récits construits essentiellement via des figures interfaciques tels que Ne me touchez pas ou encore des parodies de programmes informatiques à limage dAuto-Illustrator ? Naurait-il pas été préférable dintroduire un nouveau concept pour décrire ces objets à linstar des théoriciens de lart des années soixante qui, confrontés à des questions similaires, avaient préféré introduire les termes dinstallation et de happening pour penser lapparition dœuvres plastiques ou évènementielles en tension entre un programme esthétique et un dispositif technique ?

La première partie de louvrage sattache donc à construire et circonscrire cet objet en proposant à la fois une définition, une typologie, une histoire et une sociologie de la littérature numérique. Toute la difficulté de lentreprise consiste à trouver une définition permettant de délimiter un champ de recherche opératoire tout en conservant des frontières suffisamment poreuses pour y intégrer un corpus aussi disparate. La définition de la littérature numérique retenue par Bouchardon 289(« ensemble des créations qui mettent en tension littérarité et spécificités du support numérique ») se veut ainsi la plus ouverte possible au risque de prêter le flanc à la critique.

En effet, lemploi du terme littérarité (ce qui fait dun texte une œuvre littéraire) ne va pas de soi. De nombreux théoriciens comme Greimas ou Kristeva ont ainsi refusé de lemployer, jugeant le concept peu opératoire et surtout insolubles les questions quil pose. Conscient de cette difficulté, lauteur présente, dans le fil de son article Une esthétique de la matérialité en 2008 une interprétation très originale de cette notion qui détermine lensemble de son programme de recherche. En partant de lidée que le support dun texte dicte le régime de sa littérarité, il examine comment les gestes et manipulations des lecteurs de récits interactifs numériques mettent en évidence la matérialité du texte. Lutilisation, dans ces œuvres, des liens hypertextes permet de briser la linéarité caractérisant habituellement la littérature classique et induit un glissement du narratif au poétique dans lequel la forme du texte devient lessentiel du message. Fragmentation et non-linéarité constituent ainsi une poétique dont les figures liées à la matérialité sappuient sur les figures rhétoriques classiques : celle de la métonymie, avec la mise en tension spatiale des divers fragments, ou celle de lellipse narrative, avec la substitution dun fragment par un autre sans possibilités de retour.

La deuxième partie du texte est ainsi loccasion, en développant cette esthétique de la matérialité, de repenser certaines notions classiques de la théorie littéraire. Les analyses sur linteractivité et les modalités de lhypertexte y côtoient celles sur la fragmentation narrative et temporelle, la textualité pensée comme un processus « technopolysémiotique » (qui implique plusieurs langages simultanément) et lesthétique de la manipulation (qui requiert la gestuelle du lecteur).

La dernière partie examine la troisième valeur heuristique de la LN. Elle montre comment, en articulant les appareils théoriques de la théorie littéraire et des sciences de linformation et de la communication, la LN sert de révélateur à lécriture numérique ordinaire. Comment penser la cohabitation de multiples médias (textes, images, vidéos) au sein dun même ensemble ou la navigation au fil des liens et au sein dune interface graphique ? Comment qualifier un auteur ne sefforçant plus simplement de proposer un texte ouvert à linterprétation, mais aussi danticiper celles que fera le lecteur ?

290

Serge Bouchardon est professeur des Universités en sciences de linformation et de la communication à lUniversité de Technologie de Compiègne. Ses principaux thèmes de recherches sont lécriture numérique interactive et multimédia, le récit interactif, la création numérique et la littérature numérique. Outre ses publications académiques, il est lauteur de plusieurs textes littéraires numériques comme Mes Mots en 2009 ou Déprise en 2010.

Nathanaël Gilbert

Traducteur

1 Paul Dourish, Where the Action Is : The Foundations of Embodied Interaction, Cambridge, The MIT Press ; New Ed edition, 2001, 2004.

2 Paul Dourish & Genevieve Bell, Divining a Digital Future : Mess and Mythology in Ubiquitous Computing, Cambridge, The MIT Press, 2011.

3 Paul Dourish, The Stuff of Bits : An Essay on the Materialities of Information, Cambridge, The MIT Press, 2017.

4 Bernard Stiegler, Dans la disruption, comment ne pas devenir fou, Paris, éditions Les liens qui libèrent, 2016.