Aller au contenu

Classiques Garnier

Postures Décodages critiques

  • Type de publication : Article de revue
  • Revue : Études digitales
    2016 – 1, n° 1
    . Le texte à venir
  • Auteurs : Alombert (Anne), Pucheu (David), Gilbert (Nathanaël)
  • Pages : 279 à 293
  • Revue : Études digitales
  • Thème CLIL : 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
  • EAN : 9782406061939
  • ISBN : 978-2-406-06193-9
  • ISSN : 2497-1650
  • DOI : 10.15122/isbn.978-2-406-06193-9.p.0279
  • Éditeur : Classiques Garnier
  • Mise en ligne : 29/09/2016
  • Périodicité : Semestrielle
  • Langue : Français
279

Postures

Décodages critiques

David M. Berry, Critical theory and the digital, Bloomsbury, 2014.

Dans Critical theory and the digital, D. Berry confronte la théorie critique à la transformation numérique des sociétés contemporaines. Il mobilise les ressources de lÉcole de Francfort ainsi que les travaux dHeidegger, de Foucault ou de Stiegler, afin de saisir les enjeux épistémologiques, politiques, sociaux et ontologiques de la révolution numérique du capitalisme au xxie siècle. Berry analyse avec précision les mécanismes technologiques et économiques régissant le fonctionnement de sociétés devenues intégralement computationnelles, dévoile les logiques sociopolitiques quelles incarnent et déconstruit les idéologies qui les sous-tendent. Il développe une constellation conceptuelle permettant de penser, à lâge du numérique, les mutations de lexpérience, de la temporalité, des objets et des modes de connaissance, des pratiques culturelles et artistiques ainsi que des institutions de la modernité. Loin de se limiter à lexamen critique du capitalisme computationnel, Berry sefforce de mettre au jour les potentialités émancipatrices des technologies digitales et de dégager les conditions de possibilité de leur appropriation par les citoyens. Il sagit délaborer une théorie du numérique qui ne participe pas à la conservation du modèle computationnel dominant et de proposer des alternatives pour mettre les technologies au service de la pensée, à une époque où celle-ci se voit de plus en plus souvent déléguée aux machines et réduite au calcul.

Selon Berry, la théorie critique ne doit pas devenir un ghetto spéculatif, incapable de sengager dans les luttes politiques actuelles. Au contraire, à condition dêtre réarticulée à la lumière des enjeux contemporains, elle peut fournir un cadre conceptuel précieux pour éclairer les grandes transformations industrielles, politiques et sociales du xxie siècle. Le concept de « numérique », quant à lui, ne peut demeurer un signifiant général et abstrait, mais doit être historicisé et faire lobjet dune attention critique. Parler 280de « numérique » implique de penser à la fois un ensemble technologique complexe, une transformation industrielle, un milieu de vie quotidienne et un système disciplinaire global. Cest pourquoi Berry propose de penser le passage de lépoque des industries culturelles et de la culture de masse à celle des industries de calcul et de la culture computationnelle. Il souligne ainsi que les technologies numériques (logiciels, codes, algorithmes, infrastructures matérielles permettant leur instanciation), loin de constituer un secteur spécifique, sont aujourdhui au principe de léconomie politique : elles impliquent de nouvelles logiques de production et de distribution et constituent de nouveaux outils de gestion de la consommation. Berry décrit lémergence de ce nouvel internet industriel qui ne peut plus être pensé en termes statiques de pages web, comme un simple outil médiatique ou un moyen de communication. Internet doit, au contraire, être considéré comme un environnement, compris de manière processuelle, en termes de flux de données émises en temps réel, dont le stockage et lassemblage impliquent de nouveaux types de savoirs et de pouvoirs. Il est donc nécessaire dexplorer le fonctionnement des programmes pour comprendre celui des sociétés post-fordistes.

Berry met ainsi au jour les mécanismes opaques qui permettent la captation et le traitement algorithmique des quantités massives de données produites par les citoyens, en vue de leur surveillance globale par les services de renseignement ou du téléguidage de leurs comportements par les entreprises de marketing. Il explicite les principes sous-jacents à la collecte dinformations à des fins sécuritaires et montre comment les logiques de marché pénètrent les pratiques quotidiennes, par lintermédiaire de ce quil appelle le « dark internet », ces couches matérielles et logicielles qui sont dissimulées aux usagers, derrière les interfaces de plus en plus intuitives dobjets de plus en plus nombreux à être connectés. Berry met au jour le processus de réification de la vie quotidienne qui sous-tend selon lui ce nouveau type de contrôle : les technologies convertissent les flux dactivités sociales en relations prédictibles entre objets discrets. Cest la future personne elle-même qui devient un agrégat de données préprogrammé, auquel lindividu na plus quà se conformer. Il abandonne ainsi son temps et sa capacité de décision aux industries computationnelles.

Cette réification des conduites sociales, qui implique un abandon de lautonomie et de la réflexivité des sujets, trouve son pendant idéologique à 281travers les courants philosophiques du réalisme spéculatif ou des Ontologies Orientées Objet. Berry montre quen posant lobjet comme concept ontologique premier et en revendiquant un même statut ontologique pour toutes les entités (lhomme dépourvu de son « privilège ontologique » devenant un type spécifique dobjet parmi dautres), ces ontologies reproduisent à leur insu les catégories incarnées par le médium computationnel à travers lequel elles sexpriment. Il souligne lhomologie de structure entre les langages de programmation propres au capitalisme post-fordiste et ces systèmes ontologiques, montrant quen dépit de leurs prétentions réalistes, ces théories reflètent (et par là même légitiment) les conditions sociales et historiques de leur production. Berry dévoile ainsi lonto-théologie computationnelle quelles présupposent de manière non critique. Selon lui, la computationnalité caractérise en effet notre époque ontologique, au sens de lensemble des connaissances, des pratiques, des valeurs et des catégories qui ordonne la compréhension générale de lêtre propre à notre situation historique. Une telle « onto-théologie computationnelle » permet de saisir la connexion intime entre les processus dextraction de données générant un second ordre de réalité intégralement prédictible et calculable, et une compréhension discrétisée de lunivers, impliquant une fétichisation de lobjet considéré comme seule source de vérité.

Face à ce constat, Berry développe de nouvelles possibilités conceptuelles et politiques. Il tente de réconcilier la théorie critique et la phénoménologie heideggerienne pour élaborer une « phénoménologie critique », dont les concepts ne se bornent pas à classer les objets réels, mais visent à dégager les conditions matérielles et historiques de la pensée, qui sont aussi celles de la citoyenneté. Or, selon Berry, une citoyenneté active ne peut être aujourdhui quune citoyenneté numériquement éclairée : si les infrastructures numériques doivent devenir visibles et faire lobjet dun examen démocratique, encore faut-il que les usagers soient capables de lire les valeurs normatives incarnées dans les logiciels. Cest pourquoi Berry plaide pour une nouvelle forme de littératie numérique, quil nomme l« itéracie » : celle-ci ne se réduit ni à une connaissance formelle ni à une compétence purement exécutive, mais désigne un apprentissage expérimental et créatif de la programmation. En effet, le code ne prend sens quà travers sa mise en œuvre effective et constitue donc moins un texte statique quun événement temporel orienté vers laccomplissement dune tâche. Il sagit donc de développer une pratique herméneutique et 282inventive des programmes, qui questionne leurs intentions et teste leurs limites par la perturbation de leur fonctionnement, pour permettre aux citoyens de comprendre et dintervenir dans le système technologique qui constitue leur environnement quotidien. Un tel savoir technique devrait sintégrer à une éducation plus large, qui implique une culture du contexte socio-économique et politique de production des logiciels et une approche critique des algorithmes. Cette « digital Bildung » apparaît comme un levier fondamental de lutte contre lopacité des systèmes, visant à mettre le médium numérique au service dun usage libre et public de la raison.

En réintégrant les technologies numériques dans les processus historiques concrets au sein desquels elles se développent et en analysant les pratiques des agents qui les produisent, les subissent ou les adoptent, Berry montre que la technologie nest pas une force de la nature qui évolue de manière exogène aux situations sociopolitiques : la forme computationnelle des sociétés numériques na rien de nécessaire et nest pas déterminée à lavance. Au contraire, elle peut et doit faire lobjet de questionnements et dinterventions. Son livre témoigne de la nécessité dinterpréter le monde numérique qui nous englobe afin de parvenir à le transformer.

David Berry travaille dans le département de Communication et Média de lUniversité du Sussex, où il est aussi directeur du Sussex Humanities Lab et du Research Centre for Digital Materiality. Il étudie les médias numériques (algorithmes, logiciel et code) à travers une approche inspirée de la phénoménologie et de la théorie critique. Dans ce cadre, il sintéresse au tournant computationnel des humanités et des sciences sociales. Ses recherches intègrent différents domaines, dont léconomie politique, la théorie des médias, les software studies, ou la philosophie de la technologie. Il est notamment lauteur de The philosophy of software (2011)et Copy, Rip, Burn. The politics of Copyleft and Open Source (2008).

Anne Alombert

École normale supérieure de Lyon

Université Paris Ouest – Nanterre – La Défense

283

Bernard Stiegler (dir.), Digital Studies. Organologie des savoirs et des technologies de la connaissance, Paris, Fyp édition, 2014, 192 pages.

Par-delà les innombrables dispositifs technologiques auxquels a donné naissance, depuis plus dun demi-siècle, le processus de numérisation, il semble bien que ce soit enclenché avec lui une rupture dordre anthropologique voire ontologique dont on peine encore à prendre la mesure. Cest précisément lambition des Digital Studies auxquelles louvrage collectif dirigé par Bernard Stiegler emprunte son titre. Celui-ci en propose une introduction et soulève par là un vaste chantier détudes qui renverse les clôtures disciplinaires traditionnelles pour questionner le numérique comme nouveau mode décriture de la pensée humaine : un « nouvel âge de lesprit » pour reprendre les termes de Stiegler.

Si les contributions des différents chercheurs peuvent paraître hétérogènes, un consensus théorique se dégage immédiatement dont le texte introductif de Bernard Stiegler rend compte. Suivant en cela la théorie proposée par Leroi-Gourhan, Stiegler envisage la technique comme un processus dextériorisation organique fondant les conditions de possibilité de lindividuation individuelle et collective : force motrice, perception, pensée, mémoire. La technique ne saffiche donc pas comme une réalité extérieure à lhomme mais bien comme une caractéristique intrinsèque au processus dhominisation. Le numérique constitue à cet égard une rupture peut-être aussi importante que lapparition de la technologie de lécriture. Elles engagent lune et lautre un processus dintériorisation participant à reconfigurer, à « recoder » lhomme, non seulement en tant quindividu biologique et psychique mais également en tant quêtre social. Elles redéfinissent ainsi les termes de lappareil psychique et symbolique.

Lorganologie générale tente de rendre compte de ces codéterminations entre organes individuels, collectifs et artefactuels. À ce titre, elle interroge le devenir de lhomme et de la société dans la « nouvelle épistémè numérique ». Lorganologie des savoirs focalise lattention plus spécifiquement sur les mécanismes de transindiviuations. Ceux-ci produisent et rendent (re)productibles les savoirs et les significations qui innervent lindividuation individuelle, collective et technique. Doù la préférence donnée au terme « digital » sur le « numérique ». En effet, au-delà de la dimension computationnelle de linformatique, le « digital » 284nomme la dialectique organique homme-machine dont le doigt constitue linstrument (« lorganon ») privilégié.

Le risque évident du processus dextériorisation de la pensée dans la technologie digitale serait celui dune « atrophie de la vie de lesprit », dune « algorithmisation » généralisée de la condition humaine. Risque dautant plus présent que les grands acteurs du capitalisme informationnel, pour la plupart, fondent leurs modèles économiques sur lexploitation automatisée de ces mécanismes dextériorisation. Questionnés à maintes reprises dans cet ouvrage, Google et les thuriféraires des big data témoignent de cette logique pernicieuse. Face à elle, chacune des contributions de Digital Studies formule des propositions théoriques et pratiques alternatives, surpassant lapproche simplement critique de ces phénomènes. Daprès Stiegler, le monde académique et les institutions du savoir doivent semparer de cette « pharmacologie », destinée à dévoiler les virtualités « curatives » de la sphère numérique comme dune prérogative fondamentale. Sans cette démarche, leur rôle de médiation sen trouve directement remis en cause par les acteurs privés.

Le livre se découpe en trois grandes thématiques : celle de « lécriture numérique et des technologies intellectuelles » ; celle des « software studies » et des « digital humanities » et enfin celle des « technologies industrielles de la connaissance » incarnées par les acteurs du capitalisme informationnel.

Après la présentation de lorganologie des savoirs proposée par Stiegler, David Bates démontre, dans la première partie de louvrage, comment la dialectique entre organe vivant et organe technique conditionne les possibilités de production du savoir scientifique. Retracer lémergence historique des savoirs sur le cerveau humain, du paradigme mécaniste au « cerveau numérique », permet effectivement, à la faveur dun jeu de miroir sans fin, de dessiner notre compréhension du vivant et de lartificiel. Cette dialectique ne saurait en tant que telle être qualifiée de réductrice. Pour donner sa pleine mesure et à rebours de ce que prônent certaines théories computationnelles du cerveau humain, elle doit sappuyer sur des savoirs incomplets et évolutifs. Ed Cohen nous exhorte à « savoir-vivre » avec ces derniers, proposant de renouer à lère numérique avec ce que Foucault nommait la « psychagogie » (des savoirs destinés à « modifier le mode dêtre des sujets »).

Le second chapitre du livre souvre sur une contribution de Bruno Bachimont qui sinterroge sur la destinée de la culture et des formes 285sémiotiques à lheure de leur (re)productibilité numérique. Ce régime de production des savoirs entraîne selon lui un nouveau « nominalisme de la culture ». Comme le nominalisme de la nature avant lui, celui-ci engage une représentation du monde qui disqualifie, les formes sémiotiques, discrétisées en données a-signifiantes. Traitées algorithmiquement, celles-ci produisent in fine une « sémantique des données ». De même, constatant que ces opérations de mise en visibilité du réel privilégient une posture objectivante légitimée par le calcul automatisé, Pierre Mounier craint lextinction du contrôle interprétatif humain. Conjurer cette exclusion de lexpérience vécue est le défi que les digital humanities doivent relever, tout en réinterrogeant en profondeur les méthodes traditionnelles des SHS. Dominique Cardon questionne également notre rapport au nouveau régime de visibilité du réel, produit cette fois par la pratique émergente du « journalisme des données », contemporaine du mouvement de lopen data. Lexclusion, par les opérations statistiques des big data, des catégories traditionnelles danalyse des données, ainsi que lhypertrophie de la sphère informationnelle individuelle pourraient bien liquider les possibilités dun débat public pourtant au cœur des enjeux de lopen data.

La troisième et dernière partie de louvrage questionne les stratégies des grands acteurs industriels du capitalisme informationnel. Frederick Kaplan y expose sa thèse sur le capitalisme linguistique dont Google constitue lacteur principal. La valorisation marchande des mots qui fait le cœur du business model de Google semble inoculer dans la sphère du langage de nouvelles logiques. Questionnant les algorithmes de recommandation publicitaire associés aux mécanismes dautocomplétion du célèbre moteur de recherche, lauteur problématise la créolisation du langage, progressivement colonisé par la médiation algorithmique pour mieux être marchandé. Christian Fauré interroge également la médiation algorithmique du langage via les interfaces numériques et plus précisément via le travail sous-terrain des API (interface de programme). Dans la dernière contribution de louvrage, Michel Calmejane propose une analyse déconomie politique du numérique révélant le retard accumulé par lEurope en la matière et soulignant la nécessité quil y a à proposer des modèles alternatifs au libertarisme anglo-saxon.

Malgré laspect parfois fragmentaire des contributions qui auraient sans doute gagné à être mieux harmonisées, louvrage sarticule autour 286dune idée pivot : la nécessité de dépasser une posture simplement critique du numérique, qui en occulte les virtualités. Pour reprendre la formule de Waren Sack, ne pas « rester le public de ces transformations » exige certes une critique mais plus fondamentalement encore lacceptation dun « dialogue » avec les machines. Cette exigence simpose dautant plus quelle seule peut préserver notre contribution aux savoirs quouvrent ces nouvelles mécaniques transindividuelles.

David Pucheu

Université Bordeaux Montaigne

MICA EA 4426

287

Stephen Ramsay, Reading Machines, Toward an Algorithmic Criticism, University of Illinois, 2011.

Le lecteur sera peut-être surpris de ne pas trouver de véritables machines dont la fonctionnalité est la critique littéraire dans le petit ouvrage dense de Stephen Ramsay. La critique algorithmique dont le professeur de lUniversité de lIllinois pose ici les fondements théoriques nessaye surtout pas dimposer lusage de la machine ou dentrer en concurrence avec des modes plus classiques dinterprétation, mais elle pose la question de ce que peuvent faire les ordinateurs pour la critique littéraire en général.

Les humanités numériques constituent un champ de recherche relativement récent et lintérêt pour la littérature sy est manifesté il y a peu, même si des propositions intéressantes ont émergé ces dernières années. Ramsay rappelle, à juste titre, que lorigine de létude quantitative des textes est intimement liée à la notion dinterprétation. Celle-ci débute avec les analyses lexicales du père Roburto Busa sur lœuvre de Thomas dAquin à la fin des années quarante qui conjugue analyse typologique et herméneutique. Grâce à un dispositif de lemmatisation (la classification lexicale dun texte), rendue possible à grande échelle par lutilisation dune machine, le jésuite avait été en mesure de vérifier la pertinence de certaines interprétations. Le terme de « présence » nest, par exemple, jamais réellement thématisé par Saint Thomas. En montrant quil sagit dun concept transversal dans lensemble de son œuvre, la machine vérifie la réalité dune trame invisible que lintuition navait jusquici que soupçonnée. Il sagissait cependant là dun texte argumentatif dénué de prétentions littéraires. Lidée de vérification dégage par ailleurs un inquiétant parfum détrangeté pour un universitaire formé à lécole de lherméneutique : que valent des interprétations que lon ne peut absolument pas vérifier ?

Leffort de Ramsay consiste à concilier deux modèles épistémologiques concurrents. Il se propose de constituer, avec ce quil appelle la critique algorithmique, un champ de recherche dépassant la somme de ses parties sans pour autant chercher à les concurrencer. Des sciences du langage et des technologies du traitement de données, il retient loutil mathématique collectionnant et traitant les données. De lherméneutique, il reprend la conception de Gadamer selon laquelle on ne peut réduire le 288texte littéraire à une vérité unique. En conséquence, bien quinvérifiable par nature, ce dernier se caractérise par une plus ou moins grande ouverture en fonction de ses déterminations. Ramsay le résume dans une formule saisissante : « le scientifique a raison de dire que le pluriel danecdote ne se termine pas par les data, mais cest précisément la pluralité des anecdotes qui permet à la critique littéraire de débattre et de construire des interprétations ». Autrement dit, les anecdotes, qui soffrent comme autant dindices épars et de variations à la disposition de lenquête herméneutique, perdraient toute signification si elles devaient être traitées comme des data unifiées dans un système de lecture purement mathématique.

Larticulation de ces deux modèles, en apparence contradictoires, constitue le véritable tour de force de louvrage. Ramsay emprunte à Alfred Jarry le concept de pataphysique définie dans Faustroll comme « la science des solutions imaginaires qui accorde symboliquement aux linéaments les propriétés des objets décrits par leur virtualité ». La méthode ici définie consiste donc à utiliser la puissance de calcul brute des processeurs pour explorer le champ des possibles que permettent ces déterminations. Cest en essayant de construire des variations du texte, comme pouvaient le faire les membres de lOulipo (Ouvroir de Littérature Potentielle) que lon peut imaginer écrire une littérature potentielle comme les Cent mille milliards de poèmes de Raymond Queneau ou le roman Alphabetical Africa de lécrivain autro-américain Walter Abish. On peut à linverse examiner les différentes variations ou déformations de lœuvre pour en dégager des lectures potentielles.

Ramsay présente de multiples exemples de cette méthode pataphysico-critrique au fil de louvrage. Laccent est bien sûr mis sur des œuvres dans lesquelles la dimension formelle joue un rôle particulièrement important, quil sagisse de Faustroll dAlfred Jarry, du Yi Ching ou Du roman Les vagues de Virginia Woolf. Lauteur a toutefois délibérément choisi dautres textes dans lesquels sa méthode semble moins féconde comme Lumière daoût de William Faulkner, les lectures que fait Saussure de la poésie latine ou encore Au cœurdes ténèbres de Joseph Conrad. On pourra regretter que la plupart de ces analyses fassent référence à des outils informatiques (HyperPo, WordHoard, TAPoR, MONK, etc.) que le format de louvrage ne permet pas de détailler plus avant. Ce détail ne devrait pas dissuader 289les lecteurs potentiels de découvrir une approche de la critique littéraire résolument originale.

Stephen Ramsay est professeur à lUniversité de Nebraska-Lincoln au département dAnglais. Il sest spécialisé dans les questions philosophiques relatives à lusage des technologies au sein des humanités digitales.

Nathanaël Gilbert

290

David W. Bates, “Unity, Plasticity, Catastrophe : Order and Pathology in the Cybernetic Era” in Catastrophes : A History and Theory of an Operative Concept, ed. Andreas Killen and Nitzan Lebovic, De Gruyter, 2014.

Dans cet article, D. Bates propose une relecture de la pensée cybernétique du début du xxe siècle à la lumière de la théorie des catastrophes élaborée par le mathématicien R. Thom dans les années 60. À lencontre de la critique classique de la cybernétique, qui lui reproche sa tendance à réduire les êtres vivants à de simples mécanismes, D. Bates montre que le projet cybernétique sest nourri des réflexions sur la capacité de transformation de lorganisme vivant ou sur la plasticité du cerveau humain. En mettant au jour le rôle essentiel et productif de la catastrophe dans le maintien de lunité de systèmes complexes, ces travaux ont permis aux théoriciens de la machine automatique de penser positivement le phénomène de panne, et de sinterroger sur lidée dune « pathologie de la machine ». Il sagit donc denvisager sous un jour nouveau lhéritage du moment cybernétique, à lorigine de la révolution daprès-guerre : lavènement dune société dinformation globale. En se focalisant sur le rôle constitutif de la faille, de la déviance et de linvention dans le maintien de lunité dun système, une telle interprétation de la pensée cybernétique implique de repenser les rapports entre autonomie, automaticité et désautomatisation.

La théorie cybernétique estompe les frontières entre êtres vivants et objets technologiques sophistiqués, pour les appréhender tous deux comme des mécanismes capables de répondre de manière flexible à un environnement changeant, tout en conservant leur unité. Le fonctionnement de ces êtres adaptatifs (vivants ou machiniques) sexplique alors par un processus de rétroaction négative, qui leur permet de se maintenir en état déquilibre homéostatique, en dépit des chocs ou des transformations de leur environnement.

Cest justement contre cette notion de mécanisme rétroactif que Thom élabore sa théorie des catastrophes. Selon lui, la rétroaction ne peut pas être invoquée pour expliquer la stabilité des processus biologiques. Le maintien de son unité par lorganisme (au cours de son développement ou dans des conditions environnementales 291changeantes) doit être décrit comme une série de transformations topologiques de sa structure formelle inhérente. Lapparition des formes biologiques constitue une suite de « catastrophes mathématiques ». Ces catastrophes ne peuvent donc plus être pensées comme des événements venant affecter lorganisme de lextérieur et menacer son existence. Elles doivent être comprises comme des tournants soudains, sources de réorganisation interne. Quand le choc est trop grand, lorganisme entre dans un état dindétermination qualitative : la correction de la déviation locale ne suffit plus mais implique une restructuration globale du système. Létat pathologique ne constitue donc pas une anomalie, mais une phase de transition, menant à une nouvelle forme de lêtre.

Or, cette capacité de réorganisation propre aux organismes vivants na pas déquivalent technologique : dans les systèmes mécaniques, les parties jouent un rôle prédéterminé et leur organisation en un tout leur est imposée de lextérieur. La théorie de Thom renoue ainsi avec la distinction entre machine et organisme établie par Canguilhem : alors que la machine, toujours soumise à des finalités externes, répond aux normes rationnelles didentité, de consistance et de prédictibilité, lorganisme, non assujetti à un ordre prédéfini, est capable de surmonter les crises par une improvisation authentique, grâce à la polyvalence de ses parties et la flexibilité de sa structure. La théorie de la catastrophe semble mettre en question ce que lon a pour habitude de considérer comme les deux thèses fondamentales de la cybernétique, à savoir une analogie entre vie organique et comportement automatique, et une opposition manichéenne entre maintien dordre interne et menace extérieure de désordre.

Pourtant, Bates entend montrer que loin de se résumer à ces deux principes, le projet cybernétique demeure incompréhensible hors de son inscription dans lensemble des recherches qui se sont développées au début du xxe siècle autour du lien entre unité des systèmes, plasticité et choc catastrophique. Les travaux de Goldstein ont montré que lunité des êtres vivants ne repose pas sur la préservation dune structure prédéterminée, mais sur la constante recherche dordre par lorganisme, qui se réajuste sans cesse au contact de situations problématiques. Les recherches neurologiques de Lashley, Sherrington ou Luria ont montré limpossibilité de localiser les fonctions cognitives, du fait de la flexibilité 292du système nerveux, qui contourne les lésions physiologiques en redistribuant intégralement lactivité cérébrale dans ses différentes parties. Dans les deux cas, la continuité dun système, sa persévérance dans lexistence, ne repose pas sur sa capacité à répondre aux changements de conditions en maintenant une intégrité morphologique prédéterminée, mais sur sa plasticité, sur son aptitude à se donner de nouvelles structures pour compenser les pertes dues à un choc ou pour faire face à des circonstances imprévues.

Les fondateurs de la cybernétique, comme Wiener ou von Neumann, étaient nourris de ces recherches sur le cerveau et lorganisme. Loin de négliger les situations de désordres pathologiques, le projet cybernétique comprenait dès son origine des ambitions médicales (identifier les origines de linstabilité dans les systèmes complexes pour trouver le moyen dy remédier). La plupart des théoriciens de la discipline comme McCulloch, Ashby, Rosenblueth ou Cannon étaient dailleurs des médecins (neurologues, psychiatres, cardiologues, physiologistes). Lintroduction de la notion fondamentale dhoméostasie par Cannon est liée à létude des réactions catastrophiques des organismes en situation durgence. Sa reprise par Ashby à travers la conception de lHoméostat constitue une tentative de construction dun système mécanique capable de modifier sa structure afin de retrouver un équilibre dynamique. Lentreprise cybernétique cherche donc à comprendre comment une défaillance peut devenir une opportunité dinvention, afin de construire des machines qui posséderaient cette capacité de réorganisation radicale, en alliant fixité de structure et plasticité adaptative.

Si machines et organismes peuvent être comparés, cest donc en tant quils constituent des lieux dordre et de désordre, de stabilité et dinstabilité, potentiellement capables de faire dun état pathologique la source dun comportement radicalement nouveau et imprévisible. Cet intérêt des cybernéticiens pour la dimension créative de la panne invite à penser de nouvelles formes de symbioses entre hommes, machines et organismes, à une époque dautomatisation des activités de pensée et de technicisation des corps.

David Bates est professeur de rhétorique à luniversité de Berkeley (Californie) et ancien directeur du Center of New Media à Berkeley. Ses principaux thèmes de 293recherche sont lhistoire de la politique et de la pensée juridique ainsi que lhistoire des sciences, des technologies, des médias et de la cognition. Il travaille actuellement sur un livre, Human Insight : An Artificial History of Natural Intelligence, qui retrace les conceptions de lintelligence humaine dans la science moderne, et vise à fournir une histoire critique de lintelligence artificielle.

Anne Alombert

École normale supérieure de Lyon

Université Paris Ouest – Nanterre – La Défense