Actes Lectures et repères
- Type de publication : Article de revue
- Revue : Études digitales
2016 – 2, n° 2. Le gouvernement des données - Auteurs : Khatchatourov (Armen), Alombert (Anne), Chauveau (Carmina), Breuil (Eddie), Gilbert (Nathanaël)
- Pages : 277 à 290
- Revue : Études digitales
ACTES
Lectures et repères
Peut-on mettre la main sur les algorithmes ?
Sur la culture algorithmique de Dourish
Paul Dourish, Algorithms and their others : Algorithmic culture in context. Big Data & Society, Vol 3, Issue 2, SAGE, 2016.
Ces derniers temps la question des algorithmes a fait couler beaucoup d’encre. Après les NBIC, le web 2.0, les « Big Data », les « plateformes », on peut certainement voir ici un effet de mode. Il n’en reste pas moins que les algorithmes et l’automatisation qu’ils induisent constituent un véritable enjeu, comme le montre tout un ensemble de travaux sur les conséquences sociétales de l’utilisation de plus en plus extensive des algorithmes logiciels. À ce titre, un effort de clarification conceptuelle et systématique sur ce que sont les algorithmes est aujourd’hui plus que bienvenu, et c’est à cette tâche que l’article de Dourish s’emploie – mais son apport principal nous semble être ailleurs.
Le point de départ se trouve dans la fameuse formule donnée par Wirth en 1975 (« algorithms + data structures = programs ») qui reflète l’interdépendance entre les algorithmes et les données, interdépendance sur laquelle reposent, comme les informaticiens le savent très bien, les entités opérantes que sont les programmes. En s’appuyant sur les réalités techniques plus contemporaines, et en passant en examen les différentes « altérités » des algorithmes (automatisation, code, architecture, matérialisation), Dourish montre comment cette interdépendance induit des effets peu connus mais qui ne sont pas pour autant moins opérants : loin de la simple reproductibilité du même, les résultats du traitement dépendent du code utilisé, de 278l’architecture éventuellement distribuée, des supports matériels de l’exécution, etc.
Ajoutons ici que l’on commence aujourd’hui à prendre la mesure de cette interdépendance qui s’est sans doute renforcée depuis Wirth, comme l’illustre l’apprentissage machine (machine learning) où le résultat du traitement algorithmique est dépendant du jeu des données mis à disposition et à partir duquel l’apprentissage a été effectué. Ajoutons que, à un certain niveau de description, les données elles-mêmes dépendent des algorithmes « intermédiaires » à l’aide desquels elles sont obtenues (récoltées, re-échantillonnées, voire « simulées »).
L’opacité des algorithmes ne relève alors pas du simple secret des affaires ou du code fermé et/ou propriétaire. Il y a ici sans doute une opacité fondamentale dont la prise en compte remet en question l’aspiration un peu naïve à la transparence. À ce titre, le concepteur lui-même est parfois surpris par le résultat obtenu suite à l’exécution de l’algorithme. Et on pourrait nourrir le débat sur la transparence ou la « maitrise » avec des éléments conceptuels en provenance d’un domaine malheureusement trop peu connu de « compuational creativity » (où les « algorithmes » sont par exemple employés dans un robot qui fait de la peinture ou compose de la musique).
Tout dépend donc de ce que l’on veut faire entendre par l’algorithme, quel rôle on veut lui faire jouer et dans quel contexte. C’est là que la démarche « ethnographique » de Dourish prend tout son sens : dans sa définition même, l’algorithme est essentiellement dépendant du contexte – social, professionnel, politique – dans lequel cette définition prend place. Il est à ce titre une narration – dans le sens où il met en place et projette un récit (de catégorisation, d’attribution de crédit bancaire, de « ranking » des sites) qui ne peut être compris qu’en faisant entrer dans l’équation le narrateur (le concepteur, le responsable de traitement, etc.) et l’observateur (l’instance de l’audit ou simplement l’utilisateur). Ces dualités bien connues des sciences humaines et sociales – celles du faire et du dire, de l’énoncé et de l’énonciateur – doivent être prises en compte sur le terrain où tout est supposé être procédure, calcul et objectivité. Car les algorithmes sont dans une large mesure inscrutables en eux-mêmes, et il convient sans doute de prendre la juste mesure de ce constat. La simple transparence des algorithmes, si l’on entend par là un audit formel, risque de se révéler un leurre qui passe sous silence ce que l’on cherche justement 279à saisir : les nouvelles conditions de narration de l’« éphémère », de la fiction à l’œuvre et qui constitue le monde « algorithmique » à venir.
Professeur d’informatique à University of California, Irvine, lauréat du prix CSCW 2016 « Lasting Impact », Paul Dourish travaille à l’intersection entre l’informatique et les sciences humaines et sociales, dans les domaines de « privacy », HCI et CSCW. Il est en particulier attentif aux approches ethnographiques au design des systèmes. Après Where the Action Is : The Foundations of Embodied Interaction1, Divining a Digital Future : Mess and Mythology in Ubiquitous Computing2, il signe The Stuff of Bits : An Essay on the Materialities of Information3 en mai 2017.
Armen Khatchatourov
Télécom École de Management
Institut Mines-Télécom
*
* *
Le travail, c’est pas automatique !
Bernard Stiegler, La Société automatique. T. 1 L’avenir du travail, Paris, Fayard, 2015. ISBN : 978-2213685656
Ce livre s’ouvre sur la situation d’urgence dans laquelle se trouvent aujourd’hui les sociétés de plus en plus automatisées, frappées par la disparition progressive des emplois qui se combine à l’aggravation de la catastrophe environnementale amorcée depuis la révolution industrielle et le début de l’Anthropocène. Bernard Stiegler fait de cette situation 280concrète un problème philosophique : celui du passage à une nouvelle époque qui se produit toujours à partir d’un choc technologique et selon une double « épokhè ». Toute transformation technologique commence par suspendre les automatismes sociaux et les savoirs constitutifs d’une époque via la mise en place d’automatismes techniques a-sociaux auxquels les individus s’adaptent sans pour autant les adopter. Dans un second temps, les individus psychiques constituent de nouvelles organisations sociales et de nouveaux savoir-faire, savoir-vivre et savoir-penser, qui sont autant de manières d’adopter le nouveau milieu technique en le désautomatisant.
La constitution de ces nouveaux savoirs suppose néanmoins que s’élaborent une connaissance et une réflexion collective autour des enjeux épistémiques, économiques, psychiques et sociaux du nouveau milieu mnémotechnique. Or, selon Stiegler, l’accélération des innovations technologiques court-circuite aujourd’hui les temps de délibération essentiels à tout débat public et rationnel. Elle empêche ainsi les individus d’envisager collectivement les thérapeutiques sociales et politiques susceptibles de remédier aux effets toxiques du pharmakon numérique. Le passage au deuxième temps constitutif d’une époque ne peut pas s’opérer. C’est pourquoi Stiegler décrit le stade actuel de l’Anthropocène comme une absence d’époque et pose, avec cet ouvrage, les conditions de possibilité d’un changement d’époque. Tout en montrant pourquoi elles ne sont pas réunies aujourd’hui, Stiegler explique qu’il est nécessaire et possible d’inverser le processus à l’œuvre.
Les premiers chapitres sont consacrés à l’analyse du fonctionnement du système technique numérique et à ses effets psychiques et politiques. Les travaux de Foucault sur les technologies de pouvoir ou de Deleuze sur les sociétés de contrôle sont réinterprétés par Stiegler afin de penser l’hypercontrôle qui s’exerce dans les environnements connectés. Les réflexions de Leroi-Gourhan, Gilles ou Simondon sont également mobilisées pour penser l’automatisation, la numérisation et leurs enjeux épistémiques et sociétaux. Stiegler soutient que le fonctionnement actuel des technologies numériques, au service de la data economy, tend à détruire les processus de transindividuation psycho-sociale. À travers la collecte de leurs traces et la génération automatique de leurs profils, les individus sont soumis aux injonctions des algorithmes qui ne leur laissent plus le temps de former des désirs et des projets singuliers. Au 281contraire, le système technique exploite leurs pulsions, engendrant ainsi des comportements réflexes ou mimétiques de consommation. Les énergies psychiques des individus se voient intégrées au fonctionnement du système technique. Les actes singuliers et imprévisibles sont contraints de se conformer à des standards comportementaux calculables. La tension dynamique entre le collectif et le psychique est alors éliminée, ce qui empêche leur individuation réciproque. Or, le système technique lui-même ne peut évoluer et se renouveler qu’en s’appuyant sur les inventions des individus psychiques organisés en systèmes sociaux : il tend ainsi à son propre anéantissement.
Afin d’inverser cette tendance entropique, une ré-articulation entre système technique et systèmes sociaux apparaît nécessaire. Dans un second temps, Stiegler s’attache donc à penser un modèle économique viable et producteur de néguentropie, c’est-à-dire d’organisation, de structures ou de règles métastables. Il soutient que la disparition progressive de l’emploi salarié due à la généralisation de l’automatisation pourrait constituer une chance, à condition de redistribuer équitablement aux citoyens le temps rendu disponible. Il s’agirait de donner aux individus la possibilité de développer et d’exercer capacités et savoirs au sein de projets collectifs socialement utiles. Capacités et savoir qui seraient dès lors valorisés par un revenu contributif. Une telle proposition suppose néanmoins de réinterpréter les réflexions de Marx sur le travail et la valeur afin d’envisager les conditions d’un processus de « déprolétarisation ». Le travail ainsi repensé repose sur la transmission et la transformation de savoirs, qui ne peuvent circuler entre les individus que grâce au milieu mnémotechnique qui les supporte. C’est pourquoi Stiegler affirme la nécessité de transformer les architectures de réseaux pour faire du web un support hypomnésique permettant le partage et la production de savoirs, via des communautés de pairs, de chercheurs ou d’amateurs. Au lieu d’instrumenter un dispositif de contrôle, le milieu numérique pourrait alors devenir un espace de controverses argumentées et de conflits d’interprétation qui sont constitutifs du débat public et de la communauté politique.
À condition de repenser les notions de travail et de droit sur la base d’une conception organologique de la technique, il semble donc possible d’analyser les « dissociétés » automatiques de l’Anthropocène, et d’envisager leur avenir comme sociétés contributives au sein du 282« Néguanthropocène ». La question de la différenciation de l’avenir dans le devenir entropique de l’univers conduit Stiegler à rouvrir celle des rapports entre entropie et néguentropie. La néguentropie désigne l’évolution de la vie, comprise comme un processus retardant la dissipation inéluctable de l’énergie à travers la formation de structures et d’organisations. Stiegler envisage les nouveaux types d’organisations et les nouvelles vitesses d’évolution à l’œuvre dans la forme technique de la vie, à la fois amplificatrice d’entropie et de néguentropie. Selon la manière dont ils prennent soin de leurs organes artificiels à travers leurs organisations sociales, les individus psychiques peuvent, soit précipiter indifféremment le déchaînement entropique, soit, au contraire, le différer en polarisant le devenir des faits vers un droit, une théorie, un idéal – toujours à venir. C’est cette potentialité « néguanthropique » des vivants exosomatiques qui conduit Stiegler à avancer le projet d’une « néguanthropologie » dont l’élaboration se poursuit dans Dans la disruption. Comment ne pas devenir fou ? paru en mai 20164.
Bernard Stiegler est philosophe, directeur de l’Institut de Recherche et d’Innovation et président de l’association Ars Industrialis. Il est notamment l’auteur de La technique et le temps, et de nombreux ouvrages concernant les enjeux psychiques, sociaux, économiques et politiques des transformations technologiques contemporaines.
Anne Alombert
Université Paris Nanterre
283*
* *
Le mirage de l’épanouissement
Evgeny Morozov, Le mirage numérique – pour une politique du Big Data. trad. Pascale Hass, Les prairies ordinaires, 2015, Paris. ISBN : 978-2-35096-113-2
De conférences en éditoriaux, d’articles scientifiques en essais, s’affinent les charges qu’Evgeny Morozov formule à l’encontre de la Silicon Valley. Dans son dernier ouvrage, le chercheur et essayiste ajuste le point de mire. Il ne s’agit plus, comme dans The Net Delusion publié en 2011, de dénoncer « la face cachée » d’un Internet qui, à rebours du cyber-utopisme, sert la répression politique via la surveillance de masse ou la manipulation des opinions. Il ne s’agit pas plus d’invalider le « solutionnisme » naïf qui peine à voir combien le numérique est une question politique, socio-économique et culturelle, comme dans Pour tout résoudre cliquer ici. Morozov ajuste la focale pour que s’affirment, enfin, les contours d’une intuition restée floue et implicite : l’utopie technologique est au service de la domination néolibérale des États-Unis qu’il convient de combattre par la mise en place d’une « politique du Big Data ».
Celle-ci est présentée, par Morozov, comme une urgence intellectuelle et démocratique. Elle doit répondre au discours qui fait de la gouvernance de nos vies par les algorithmes une évidence, discours qui s’est déjà insinué très loin sur le plan épistémologique comme idéologique. Cette épistémologie simpliste portée par la Silicon Valley enjoint d’enregistrer le moindre clic, de stocker les données et de laisser les algorithmes calculer leurs corrélations sans le réquisit d’aucune hypothèse. Elle se complète par la diffusion insidieuse d’une pensée unique qualifiée par Morozov de solutionniste. Relayée par la NSA et Wall Street, celle-ci se propage d’autant plus efficacement qu’elle est portée par une technostructure dont le masque de pseudo-liberté dissimule les intentions. La contagion se propage, selon Morozov, à l’échelle mondiale, sans épargner l’Europe qui ne parvient pas à concevoir d’autres modèles que celui des GAFA alors qu’elle est « capable de construire des avions qui rivalisent avec Boeing ». Cependant, le véritable problème n’est pas tant d’améliorer 284l’outil, ni de l’offrir au plus grand nombre, que de faire en sorte qu’il serve à éradiquer la pauvreté et les inégalités. Et l’urgence est d’autant plus grande que l’idéologie techniciste néolibérale atteint maintenant des domaines tels que l’éducation, la santé, les loisirs, les assurances, le travail.
Morozov s’attarde particulièrement sur l’étude de ce dernier domaine. Il dénonce les promesses de l’économie collaborative, qui nous enjoignent de louer ou de renoncer à la propriété de nos voitures, de nos appartements ou de nos outils. Elles nous entraînent tout autant à vendre notre temps libre au plus offrant. Morozov nous décrit ainsi en prestataires intermittents de nos ressources mises aux enchères via la cession de nos données contre un rabais ou un gain de temps. Dans ce processus, nous sommes amenés à renoncer à l’intimité contre un libre arbitre de façade. Ce que nous désignons en France par le néologisme « ubérisation », Morozov le voit comme un avatar de la prolétarisation, simple déplacement de l’horizon d’égalité : une pause dans la lutte des classes, cette « imperfection d’ordre technologique [qu’un] smartphone corrigera aisément ». Pour autant, Morozov n’est pas technophobe. Son véritable ennemi n’est pas la technologie, mais le régime politique et économique qui l’accompagne : un « hallucinant mélange où le complexe militaro-industriel côtoie un système bancaire hors de contrôle et un secteur publicitaire qui l’est tout autant ». Morozov se dit progressiste. Humaniste, il invoque des « technologies qui seront vouées à créer les conditions idéales de l’épanouissement humain ». Peut-être même est-il enclin à partager la colère des pionniers du web face à son évolution. Mais il les incite à réorienter leur colère contre une gauche qui n’a pas su proposer de politiques susceptibles de contrecarrer le discours de la Silicon Valley.
Morozov en appelle à la réunion d’une communauté de chercheurs spécialisés dans les médias, les arts, l’économie, la politique et les sciences sociales. Ils doivent sortir de leur torpeur pour mettre un terme au « rétrécissement de l’imaginaire politique » qui ne permet pas de comprendre la domination à l’œuvre. Car, ce que l’on a cru ériger comme « le débat sur le numérique », écrit-il, est dans son ensemble indigent, incapable de saisir les réels problèmes posés par la technostructure hégémonique. À ce titre, Morozov puise résolument dans des références qui peuvent sembler relativement lointaines du numérique telles que G. Agamben, 285R. Bodei, G. Deleuze, M. Foucault, K. Marx, Y. Strengers. De la sorte, Morozov estime dévoiler un problème véritablement nouveau. Un problème étouffé par le débat sur le numérique et sur ses outils qui a passé sous silence « les systèmes sociaux, politiques et économiques que ces outils favorisent ou excluent ». Il ambitionne ainsi de déconstruire le « conte de fées » et les « fables utopiques », d’intercepter la « baguette magique », de mettre à nu le « fétiche ». Armée d’une ironie acerbe Morozov nous éveille salutairement de l’apathie qui a gagné nos organismes multiconnectés.
Chercheur invité par l’Université Stanford en Californie, Evgeny Morozov donne parallèlement des conférences, anime les rubriques Media de différents blogs et ONG, et tient des colonnes dans de nombreux journaux américains et européens. Depuis 2013, il est doctorant en Histoire des sciences à l’université de Harvard. Il a publié trois essais : The Net Delusion : The Dark Side of Internet Freedom publié en 2011 ; To Save Everything, Click Here : Technology, Solutionism, and the Urge to Fix Problems that Don’t Exist en 2013, et Le mirage numérique : Pour une politique du Big Data en 2015.
Carmina Chauveau
Université de Nantes
*
* *
Sur les traces de l’auteur
Yan Brailowsky, « Shakespeare, Molière et les autres : l’attribution d’auteur à l’heure du numérique » Critique, no 819-820.
Dans cet article, Yan Brailowsky analyse le recours aux techniques numériques dans le cadre des controverses liées à l’attribution des œuvres. Le numérique a montré ses limites dans son rêve de trouver le code génétique des auteurs : « aucun algorithme n’est pour le moment capable de fournir des preuves irréfutables », écrit Yan Brailowsky. De 286notre point de vue la limitation des algorithmes n’est pas que temporaire. En effet, les critères d’attribution des œuvres, même s’ils relèvent principalement du contexte, du registre ou du genre, sont non pas seulement nombreux mais extensibles. D’ailleurs, Brailowsky lui-même prend judicieusement soin de rappeler que la notion d’auteur en tant que telle est problématique, et ce d’autant plus à l’époque élisabéthaine, celle du théâtre de Shakespeare, où elle n’engage pas les mêmes enjeux qu’actuellement.
Yan Brailowsky estime que l’analyse systématisée des mots-outils dans le cadre de l’examen de la langue des œuvres permet d’affiner une recherche de paternité. Les études correspondantes s’appuient sur des bases de données riches et parfois interopérables (même si de nombreuses bases de données ne sont disponibles que sur microfiches). De nombreux travaux ont été réalisés sur le sujet, et on se référera utilement à ceux du linguiste Étienne Brunet. La fiabilité de la méthode est généralement vantée sur la base d’un pourcentage élevé d’éléments discriminants permettant de différencier deux auteurs. Yan Brailowsky invite néanmoins à considérer certaines conclusions tirées de ces études avec prudence : elles pourraient être émaillées d’erreurs de méthode et de calcul. La querelle de paternité autour des œuvres de Molière est un exemple fameux des résultats contradictoires qu’obtiennent les spécialistes en lexicométrie. Nous aimerions évoquer d’autres limites. La constitution du corpus peut être naturellement biaisée par le manque de connaissances philologiques. Au-delà, et d’un point de vue strictement méthodologique, le but de l’analyse lexicométrique est-il de déterminer une attribution ou, au contraire, de rejeter une attribution grâce, en particulier, à la mise évidence des anachronismes ?
Yan Brailowsky relativise l’apport du numérique, qui « n’a pas bouleversé le paysage ni contredit les résultats obtenus par l’analyse qualitative, érudite ou philologique » mais qui a montré un déplacement du débat des attributions. Celui-ci ne se déroule plus entre spécialistes et universitaires, mais sur la Toile, s’adressant de fait à un vaste public. Le risque est alors que les médias suggèrent à quelques universitaires les débats qui devraient être les leurs. Il est regrettable que l’auteur ne se soit intéressé, dans cet article, qu’à des affaires de paternité fortement médiatisées et reposant sur des bases peu solides, et non à d’autres qui ont principalement été destinées à des médias universitaires (plusieurs textes de Paul Scarron, 287les Lettres portugaises, ou les textes copiés de deux mains et regroupés sous le titre Illuminations attribués par erreur, et sans son autorisation, à Arthur Rimbaud). Car un des effets pernicieux de l’emballement pour le numérique a été de faire oublier les techniques éprouvées de l’attribution. En effet, le numérique a été essentiellement utilisé dans le cadre de la critique interne (l’examen du texte), qui ne prouve rien en elle-même mais a pour objectif principal de confirmer ce que la critique externe révèle via l’examen des témoignages, humains et matériels. Nombreux sont ceux qui, oubliant cette complémentarité, commencent de façon absurde par la critique interne, voire n’utilisent que celle-ci, pour tenter de désattribuer la paternité des œuvres. En effet, en ne se fondant que sur cette critique interne, quiconque pourrait prétendre que le style de l’auteur d’Andromaque ne se retrouve pas dans celui de l’auteur des Plaideurs, ou que le poète Mallarmé n’est pas l’auteur des Mots anglais.
En ayant en tête cette nécessaire complémentarité entre critiques externe et interne, les chercheurs pourraient plus facilement se désintéresser des « affaires » qui reposent souvent sur une théorie du complot ou sur un éventuel mensonge. De manière concomitante, les études digitales mériteraient de se focaliser aussi sur la critique externe. En effet, le formidable potentiel indexatoire du numérique en facilite le déploiement grâce à la constitution de bases de données regroupant des témoignages de première main, comme autant de pièces d’un inestimable intérêt pour instruire la paternité des œuvres et éviter certaines affaires aussi médiatiques qu’inutiles.
Yan Brailowsky enseigne l’histoire et la littérature anglaise de la première modernité à l’Université Paris Ouest Nanterre depuis 2008. Ses travaux portent sur les rapports entre théâtre et politique, théâtre et historiographie ainsi que sur les querelles religieuses. Il travaille actuellement sur les personnages controversés de reines meurtrières dans le théâtre des années 1550-1620. Il est également Secrétaire de la Société Française Shakespeare.
Eddie Breuil
IUT2 de Grenoble
288*
* *
Écritures numériques, écritures littéraires ?
Serge Bouchardon, La valeur heuristique de la littérature numérique. Hermann, 2014. ISBN : 9782705688028
Universitaire, mais aussi auteur, Serge Bouchardon se propose, avec cet ouvrage dense, de mettre en perspective la notion de littérature numérique (LN) sous un triple questionnement articulé autour du rapport entre le numérique et la création littéraire : qu’offre le numérique à la création littéraire ? Que nous apprend le numérique sur la création littéraire ? Que nous enseigne en retour cette nouvelle forme de littérature sur l’écriture numérique ?
Qu’il s’agisse de textes générés par des algorithmes, de travaux combinatoires, de récits hypertextuels, de poésies animées ou de compositions transmédia, les œuvres littéraires numériques constituent un corpus hétérogène dont les frontières indéfinies représentent un défi de taille pour la critique traditionnelle comme pour le public qui peine la plupart du temps à y voir de la « littérature au sens strict ». Comment penser des œuvres dépourvues de texte apparent comme My Google Body, des récits construits essentiellement via des figures interfaciques tels que Ne me touchez pas ou encore des parodies de programmes informatiques à l’image d’Auto-Illustrator ? N’aurait-il pas été préférable d’introduire un nouveau concept pour décrire ces objets à l’instar des théoriciens de l’art des années soixante qui, confrontés à des questions similaires, avaient préféré introduire les termes d’installation et de happening pour penser l’apparition d’œuvres plastiques ou évènementielles en tension entre un programme esthétique et un dispositif technique ?
La première partie de l’ouvrage s’attache donc à construire et circonscrire cet objet en proposant à la fois une définition, une typologie, une histoire et une sociologie de la littérature numérique. Toute la difficulté de l’entreprise consiste à trouver une définition permettant de délimiter un champ de recherche opératoire tout en conservant des frontières suffisamment poreuses pour y intégrer un corpus aussi disparate. La définition de la littérature numérique retenue par Bouchardon 289(« ensemble des créations qui mettent en tension littérarité et spécificités du support numérique ») se veut ainsi la plus ouverte possible au risque de prêter le flanc à la critique.
En effet, l’emploi du terme littérarité (ce qui fait d’un texte une œuvre littéraire) ne va pas de soi. De nombreux théoriciens comme Greimas ou Kristeva ont ainsi refusé de l’employer, jugeant le concept peu opératoire et surtout insolubles les questions qu’il pose. Conscient de cette difficulté, l’auteur présente, dans le fil de son article Une esthétique de la matérialité en 2008 une interprétation très originale de cette notion qui détermine l’ensemble de son programme de recherche. En partant de l’idée que le support d’un texte dicte le régime de sa littérarité, il examine comment les gestes et manipulations des lecteurs de récits interactifs numériques mettent en évidence la matérialité du texte. L’utilisation, dans ces œuvres, des liens hypertextes permet de briser la linéarité caractérisant habituellement la littérature classique et induit un glissement du narratif au poétique dans lequel la forme du texte devient l’essentiel du message. Fragmentation et non-linéarité constituent ainsi une poétique dont les figures liées à la matérialité s’appuient sur les figures rhétoriques classiques : celle de la métonymie, avec la mise en tension spatiale des divers fragments, ou celle de l’ellipse narrative, avec la substitution d’un fragment par un autre sans possibilités de retour.
La deuxième partie du texte est ainsi l’occasion, en développant cette esthétique de la matérialité, de repenser certaines notions classiques de la théorie littéraire. Les analyses sur l’interactivité et les modalités de l’hypertexte y côtoient celles sur la fragmentation narrative et temporelle, la textualité pensée comme un processus « technopolysémiotique » (qui implique plusieurs langages simultanément) et l’esthétique de la manipulation (qui requiert la gestuelle du lecteur).
La dernière partie examine la troisième valeur heuristique de la LN. Elle montre comment, en articulant les appareils théoriques de la théorie littéraire et des sciences de l’information et de la communication, la LN sert de révélateur à l’écriture numérique ordinaire. Comment penser la cohabitation de multiples médias (textes, images, vidéos) au sein d’un même ensemble ou la navigation au fil des liens et au sein d’une interface graphique ? Comment qualifier un auteur ne s’efforçant plus simplement de proposer un texte ouvert à l’interprétation, mais aussi d’anticiper celles que fera le lecteur ?
290Serge Bouchardon est professeur des Universités en sciences de l’information et de la communication à l’Université de Technologie de Compiègne. Ses principaux thèmes de recherches sont l’écriture numérique interactive et multimédia, le récit interactif, la création numérique et la littérature numérique. Outre ses publications académiques, il est l’auteur de plusieurs textes littéraires numériques comme Mes Mots en 2009 ou Déprise en 2010.
Nathanaël Gilbert
Traducteur
1 Paul Dourish, Where the Action Is : The Foundations of Embodied Interaction, Cambridge, The MIT Press ; New Ed edition, 2001, 2004.
2 Paul Dourish & Genevieve Bell, Divining a Digital Future : Mess and Mythology in Ubiquitous Computing, Cambridge, The MIT Press, 2011.
3 Paul Dourish, The Stuff of Bits : An Essay on the Materialities of Information, Cambridge, The MIT Press, 2017.
4 Bernard Stiegler, Dans la disruption, comment ne pas devenir fou, Paris, éditions Les liens qui libèrent, 2016.
- Thème CLIL : 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
- ISBN : 978-2-406-07064-1
- EAN : 9782406070641
- ISSN : 2497-1650
- DOI : 10.15122/isbn.978-2-406-07064-1.p.0277
- Éditeur : Classiques Garnier
- Mise en ligne : 12/08/2017
- Périodicité : Semestrielle
- Langue : Français