Postures Décodages critiques
- Publication type: Journal article
- Journal: Études digitales
2016 – 1, n° 1. Le texte à venir - Authors: Alombert (Anne), Pucheu (David), Gilbert (Nathanaël)
- Pages: 279 to 293
- Journal: Digital Studies
Postures
Décodages critiques
David M. Berry, Critical theory and the digital, Bloomsbury, 2014.
Dans Critical theory and the digital, D. Berry confronte la théorie critique à la transformation numérique des sociétés contemporaines. Il mobilise les ressources de l’École de Francfort ainsi que les travaux d’Heidegger, de Foucault ou de Stiegler, afin de saisir les enjeux épistémologiques, politiques, sociaux et ontologiques de la révolution numérique du capitalisme au xxie siècle. Berry analyse avec précision les mécanismes technologiques et économiques régissant le fonctionnement de sociétés devenues intégralement computationnelles, dévoile les logiques sociopolitiques qu’elles incarnent et déconstruit les idéologies qui les sous-tendent. Il développe une constellation conceptuelle permettant de penser, à l’âge du numérique, les mutations de l’expérience, de la temporalité, des objets et des modes de connaissance, des pratiques culturelles et artistiques ainsi que des institutions de la modernité. Loin de se limiter à l’examen critique du capitalisme computationnel, Berry s’efforce de mettre au jour les potentialités émancipatrices des technologies digitales et de dégager les conditions de possibilité de leur appropriation par les citoyens. Il s’agit d’élaborer une théorie du numérique qui ne participe pas à la conservation du modèle computationnel dominant et de proposer des alternatives pour mettre les technologies au service de la pensée, à une époque où celle-ci se voit de plus en plus souvent déléguée aux machines et réduite au calcul.
Selon Berry, la théorie critique ne doit pas devenir un ghetto spéculatif, incapable de s’engager dans les luttes politiques actuelles. Au contraire, à condition d’être réarticulée à la lumière des enjeux contemporains, elle peut fournir un cadre conceptuel précieux pour éclairer les grandes transformations industrielles, politiques et sociales du xxie siècle. Le concept de « numérique », quant à lui, ne peut demeurer un signifiant général et abstrait, mais doit être historicisé et faire l’objet d’une attention critique. Parler 280de « numérique » implique de penser à la fois un ensemble technologique complexe, une transformation industrielle, un milieu de vie quotidienne et un système disciplinaire global. C’est pourquoi Berry propose de penser le passage de l’époque des industries culturelles et de la culture de masse à celle des industries de calcul et de la culture computationnelle. Il souligne ainsi que les technologies numériques (logiciels, codes, algorithmes, infrastructures matérielles permettant leur instanciation), loin de constituer un secteur spécifique, sont aujourd’hui au principe de l’économie politique : elles impliquent de nouvelles logiques de production et de distribution et constituent de nouveaux outils de gestion de la consommation. Berry décrit l’émergence de ce nouvel internet industriel qui ne peut plus être pensé en termes statiques de pages web, comme un simple outil médiatique ou un moyen de communication. Internet doit, au contraire, être considéré comme un environnement, compris de manière processuelle, en termes de flux de données émises en temps réel, dont le stockage et l’assemblage impliquent de nouveaux types de savoirs et de pouvoirs. Il est donc nécessaire d’explorer le fonctionnement des programmes pour comprendre celui des sociétés post-fordistes.
Berry met ainsi au jour les mécanismes opaques qui permettent la captation et le traitement algorithmique des quantités massives de données produites par les citoyens, en vue de leur surveillance globale par les services de renseignement ou du téléguidage de leurs comportements par les entreprises de marketing. Il explicite les principes sous-jacents à la collecte d’informations à des fins sécuritaires et montre comment les logiques de marché pénètrent les pratiques quotidiennes, par l’intermédiaire de ce qu’il appelle le « dark internet », ces couches matérielles et logicielles qui sont dissimulées aux usagers, derrière les interfaces de plus en plus intuitives d’objets de plus en plus nombreux à être connectés. Berry met au jour le processus de réification de la vie quotidienne qui sous-tend selon lui ce nouveau type de contrôle : les technologies convertissent les flux d’activités sociales en relations prédictibles entre objets discrets. C’est la future personne elle-même qui devient un agrégat de données préprogrammé, auquel l’individu n’a plus qu’à se conformer. Il abandonne ainsi son temps et sa capacité de décision aux industries computationnelles.
Cette réification des conduites sociales, qui implique un abandon de l’autonomie et de la réflexivité des sujets, trouve son pendant idéologique à 281travers les courants philosophiques du réalisme spéculatif ou des Ontologies Orientées Objet. Berry montre qu’en posant l’objet comme concept ontologique premier et en revendiquant un même statut ontologique pour toutes les entités (l’homme dépourvu de son « privilège ontologique » devenant un type spécifique d’objet parmi d’autres), ces ontologies reproduisent à leur insu les catégories incarnées par le médium computationnel à travers lequel elles s’expriment. Il souligne l’homologie de structure entre les langages de programmation propres au capitalisme post-fordiste et ces systèmes ontologiques, montrant qu’en dépit de leurs prétentions réalistes, ces théories reflètent (et par là même légitiment) les conditions sociales et historiques de leur production. Berry dévoile ainsi l’onto-théologie computationnelle qu’elles présupposent de manière non critique. Selon lui, la computationnalité caractérise en effet notre époque ontologique, au sens de l’ensemble des connaissances, des pratiques, des valeurs et des catégories qui ordonne la compréhension générale de l’être propre à notre situation historique. Une telle « onto-théologie computationnelle » permet de saisir la connexion intime entre les processus d’extraction de données générant un second ordre de réalité intégralement prédictible et calculable, et une compréhension discrétisée de l’univers, impliquant une fétichisation de l’objet considéré comme seule source de vérité.
Face à ce constat, Berry développe de nouvelles possibilités conceptuelles et politiques. Il tente de réconcilier la théorie critique et la phénoménologie heideggerienne pour élaborer une « phénoménologie critique », dont les concepts ne se bornent pas à classer les objets réels, mais visent à dégager les conditions matérielles et historiques de la pensée, qui sont aussi celles de la citoyenneté. Or, selon Berry, une citoyenneté active ne peut être aujourd’hui qu’une citoyenneté numériquement éclairée : si les infrastructures numériques doivent devenir visibles et faire l’objet d’un examen démocratique, encore faut-il que les usagers soient capables de lire les valeurs normatives incarnées dans les logiciels. C’est pourquoi Berry plaide pour une nouvelle forme de littératie numérique, qu’il nomme l’« itéracie » : celle-ci ne se réduit ni à une connaissance formelle ni à une compétence purement exécutive, mais désigne un apprentissage expérimental et créatif de la programmation. En effet, le code ne prend sens qu’à travers sa mise en œuvre effective et constitue donc moins un texte statique qu’un événement temporel orienté vers l’accomplissement d’une tâche. Il s’agit donc de développer une pratique herméneutique et 282inventive des programmes, qui questionne leurs intentions et teste leurs limites par la perturbation de leur fonctionnement, pour permettre aux citoyens de comprendre et d’intervenir dans le système technologique qui constitue leur environnement quotidien. Un tel savoir technique devrait s’intégrer à une éducation plus large, qui implique une culture du contexte socio-économique et politique de production des logiciels et une approche critique des algorithmes. Cette « digital Bildung » apparaît comme un levier fondamental de lutte contre l’opacité des systèmes, visant à mettre le médium numérique au service d’un usage libre et public de la raison.
En réintégrant les technologies numériques dans les processus historiques concrets au sein desquels elles se développent et en analysant les pratiques des agents qui les produisent, les subissent ou les adoptent, Berry montre que la technologie n’est pas une force de la nature qui évolue de manière exogène aux situations sociopolitiques : la forme computationnelle des sociétés numériques n’a rien de nécessaire et n’est pas déterminée à l’avance. Au contraire, elle peut et doit faire l’objet de questionnements et d’interventions. Son livre témoigne de la nécessité d’interpréter le monde numérique qui nous englobe afin de parvenir à le transformer.
David Berry travaille dans le département de Communication et Média de l’Université du Sussex, où il est aussi directeur du Sussex Humanities Lab et du Research Centre for Digital Materiality. Il étudie les médias numériques (algorithmes, logiciel et code) à travers une approche inspirée de la phénoménologie et de la théorie critique. Dans ce cadre, il s’intéresse au tournant computationnel des humanités et des sciences sociales. Ses recherches intègrent différents domaines, dont l’économie politique, la théorie des médias, les software studies, ou la philosophie de la technologie. Il est notamment l’auteur de The philosophy of software (2011)et Copy, Rip, Burn. The politics of Copyleft and Open Source (2008).
Anne Alombert
École normale supérieure de Lyon
Université Paris Ouest – Nanterre – La Défense
283Bernard Stiegler (dir.), Digital Studies. Organologie des savoirs et des technologies de la connaissance, Paris, Fyp édition, 2014, 192 pages.
Par-delà les innombrables dispositifs technologiques auxquels a donné naissance, depuis plus d’un demi-siècle, le processus de numérisation, il semble bien que ce soit enclenché avec lui une rupture d’ordre anthropologique voire ontologique dont on peine encore à prendre la mesure. C’est précisément l’ambition des Digital Studies auxquelles l’ouvrage collectif dirigé par Bernard Stiegler emprunte son titre. Celui-ci en propose une introduction et soulève par là un vaste chantier d’études qui renverse les clôtures disciplinaires traditionnelles pour questionner le numérique comme nouveau mode d’écriture de la pensée humaine : un « nouvel âge de l’esprit » pour reprendre les termes de Stiegler.
Si les contributions des différents chercheurs peuvent paraître hétérogènes, un consensus théorique se dégage immédiatement dont le texte introductif de Bernard Stiegler rend compte. Suivant en cela la théorie proposée par Leroi-Gourhan, Stiegler envisage la technique comme un processus d’extériorisation organique fondant les conditions de possibilité de l’individuation individuelle et collective : force motrice, perception, pensée, mémoire. La technique ne s’affiche donc pas comme une réalité extérieure à l’homme mais bien comme une caractéristique intrinsèque au processus d’hominisation. Le numérique constitue à cet égard une rupture peut-être aussi importante que l’apparition de la technologie de l’écriture. Elles engagent l’une et l’autre un processus d’intériorisation participant à reconfigurer, à « recoder » l’homme, non seulement en tant qu’individu biologique et psychique mais également en tant qu’être social. Elles redéfinissent ainsi les termes de l’appareil psychique et symbolique.
L’organologie générale tente de rendre compte de ces codéterminations entre organes individuels, collectifs et artefactuels. À ce titre, elle interroge le devenir de l’homme et de la société dans la « nouvelle épistémè numérique ». L’organologie des savoirs focalise l’attention plus spécifiquement sur les mécanismes de transindiviuations. Ceux-ci produisent et rendent (re)productibles les savoirs et les significations qui innervent l’individuation individuelle, collective et technique. D’où la préférence donnée au terme « digital » sur le « numérique ». En effet, au-delà de la dimension computationnelle de l’informatique, le « digital » 284nomme la dialectique organique homme-machine dont le doigt constitue l’instrument (« l’organon ») privilégié.
Le risque évident du processus d’extériorisation de la pensée dans la technologie digitale serait celui d’une « atrophie de la vie de l’esprit », d’une « algorithmisation » généralisée de la condition humaine. Risque d’autant plus présent que les grands acteurs du capitalisme informationnel, pour la plupart, fondent leurs modèles économiques sur l’exploitation automatisée de ces mécanismes d’extériorisation. Questionnés à maintes reprises dans cet ouvrage, Google et les thuriféraires des big data témoignent de cette logique pernicieuse. Face à elle, chacune des contributions de Digital Studies formule des propositions théoriques et pratiques alternatives, surpassant l’approche simplement critique de ces phénomènes. D’après Stiegler, le monde académique et les institutions du savoir doivent s’emparer de cette « pharmacologie », destinée à dévoiler les virtualités « curatives » de la sphère numérique comme d’une prérogative fondamentale. Sans cette démarche, leur rôle de médiation s’en trouve directement remis en cause par les acteurs privés.
Le livre se découpe en trois grandes thématiques : celle de « l’écriture numérique et des technologies intellectuelles » ; celle des « software studies » et des « digital humanities » et enfin celle des « technologies industrielles de la connaissance » incarnées par les acteurs du capitalisme informationnel.
Après la présentation de l’organologie des savoirs proposée par Stiegler, David Bates démontre, dans la première partie de l’ouvrage, comment la dialectique entre organe vivant et organe technique conditionne les possibilités de production du savoir scientifique. Retracer l’émergence historique des savoirs sur le cerveau humain, du paradigme mécaniste au « cerveau numérique », permet effectivement, à la faveur d’un jeu de miroir sans fin, de dessiner notre compréhension du vivant et de l’artificiel. Cette dialectique ne saurait en tant que telle être qualifiée de réductrice. Pour donner sa pleine mesure et à rebours de ce que prônent certaines théories computationnelles du cerveau humain, elle doit s’appuyer sur des savoirs incomplets et évolutifs. Ed Cohen nous exhorte à « savoir-vivre » avec ces derniers, proposant de renouer à l’ère numérique avec ce que Foucault nommait la « psychagogie » (des savoirs destinés à « modifier le mode d’être des sujets »).
Le second chapitre du livre s’ouvre sur une contribution de Bruno Bachimont qui s’interroge sur la destinée de la culture et des formes 285sémiotiques à l’heure de leur (re)productibilité numérique. Ce régime de production des savoirs entraîne selon lui un nouveau « nominalisme de la culture ». Comme le nominalisme de la nature avant lui, celui-ci engage une représentation du monde qui disqualifie, les formes sémiotiques, discrétisées en données a-signifiantes. Traitées algorithmiquement, celles-ci produisent in fine une « sémantique des données ». De même, constatant que ces opérations de mise en visibilité du réel privilégient une posture objectivante légitimée par le calcul automatisé, Pierre Mounier craint l’extinction du contrôle interprétatif humain. Conjurer cette exclusion de l’expérience vécue est le défi que les digital humanities doivent relever, tout en réinterrogeant en profondeur les méthodes traditionnelles des SHS. Dominique Cardon questionne également notre rapport au nouveau régime de visibilité du réel, produit cette fois par la pratique émergente du « journalisme des données », contemporaine du mouvement de l’open data. L’exclusion, par les opérations statistiques des big data, des catégories traditionnelles d’analyse des données, ainsi que l’hypertrophie de la sphère informationnelle individuelle pourraient bien liquider les possibilités d’un débat public pourtant au cœur des enjeux de l’open data.
La troisième et dernière partie de l’ouvrage questionne les stratégies des grands acteurs industriels du capitalisme informationnel. Frederick Kaplan y expose sa thèse sur le capitalisme linguistique dont Google constitue l’acteur principal. La valorisation marchande des mots qui fait le cœur du business model de Google semble inoculer dans la sphère du langage de nouvelles logiques. Questionnant les algorithmes de recommandation publicitaire associés aux mécanismes d’autocomplétion du célèbre moteur de recherche, l’auteur problématise la créolisation du langage, progressivement colonisé par la médiation algorithmique pour mieux être marchandé. Christian Fauré interroge également la médiation algorithmique du langage via les interfaces numériques et plus précisément via le travail sous-terrain des API (interface de programme). Dans la dernière contribution de l’ouvrage, Michel Calmejane propose une analyse d’économie politique du numérique révélant le retard accumulé par l’Europe en la matière et soulignant la nécessité qu’il y a à proposer des modèles alternatifs au libertarisme anglo-saxon.
Malgré l’aspect parfois fragmentaire des contributions qui auraient sans doute gagné à être mieux harmonisées, l’ouvrage s’articule autour 286d’une idée pivot : la nécessité de dépasser une posture simplement critique du numérique, qui en occulte les virtualités. Pour reprendre la formule de Waren Sack, ne pas « rester le public de ces transformations » exige certes une critique mais plus fondamentalement encore l’acceptation d’un « dialogue » avec les machines. Cette exigence s’impose d’autant plus qu’elle seule peut préserver notre contribution aux savoirs qu’ouvrent ces nouvelles mécaniques transindividuelles.
David Pucheu
Université Bordeaux Montaigne
MICA EA 4426
287Stephen Ramsay, Reading Machines, Toward an Algorithmic Criticism, University of Illinois, 2011.
Le lecteur sera peut-être surpris de ne pas trouver de véritables machines dont la fonctionnalité est la critique littéraire dans le petit ouvrage dense de Stephen Ramsay. La critique algorithmique dont le professeur de l’Université de l’Illinois pose ici les fondements théoriques n’essaye surtout pas d’imposer l’usage de la machine ou d’entrer en concurrence avec des modes plus classiques d’interprétation, mais elle pose la question de ce que peuvent faire les ordinateurs pour la critique littéraire en général.
Les humanités numériques constituent un champ de recherche relativement récent et l’intérêt pour la littérature s’y est manifesté il y a peu, même si des propositions intéressantes ont émergé ces dernières années. Ramsay rappelle, à juste titre, que l’origine de l’étude quantitative des textes est intimement liée à la notion d’interprétation. Celle-ci débute avec les analyses lexicales du père Roburto Busa sur l’œuvre de Thomas d’Aquin à la fin des années quarante qui conjugue analyse typologique et herméneutique. Grâce à un dispositif de lemmatisation (la classification lexicale d’un texte), rendue possible à grande échelle par l’utilisation d’une machine, le jésuite avait été en mesure de vérifier la pertinence de certaines interprétations. Le terme de « présence » n’est, par exemple, jamais réellement thématisé par Saint Thomas. En montrant qu’il s’agit d’un concept transversal dans l’ensemble de son œuvre, la machine vérifie la réalité d’une trame invisible que l’intuition n’avait jusqu’ici que soupçonnée. Il s’agissait cependant là d’un texte argumentatif dénué de prétentions littéraires. L’idée de vérification dégage par ailleurs un inquiétant parfum d’étrangeté pour un universitaire formé à l’école de l’herméneutique : que valent des interprétations que l’on ne peut absolument pas vérifier ?
L’effort de Ramsay consiste à concilier deux modèles épistémologiques concurrents. Il se propose de constituer, avec ce qu’il appelle la critique algorithmique, un champ de recherche dépassant la somme de ses parties sans pour autant chercher à les concurrencer. Des sciences du langage et des technologies du traitement de données, il retient l’outil mathématique collectionnant et traitant les données. De l’herméneutique, il reprend la conception de Gadamer selon laquelle on ne peut réduire le 288texte littéraire à une vérité unique. En conséquence, bien qu’invérifiable par nature, ce dernier se caractérise par une plus ou moins grande ouverture en fonction de ses déterminations. Ramsay le résume dans une formule saisissante : « le scientifique a raison de dire que le pluriel d’anecdote ne se termine pas par les data, mais c’est précisément la pluralité des anecdotes qui permet à la critique littéraire de débattre et de construire des interprétations ». Autrement dit, les anecdotes, qui s’offrent comme autant d’indices épars et de variations à la disposition de l’enquête herméneutique, perdraient toute signification si elles devaient être traitées comme des data unifiées dans un système de lecture purement mathématique.
L’articulation de ces deux modèles, en apparence contradictoires, constitue le véritable tour de force de l’ouvrage. Ramsay emprunte à Alfred Jarry le concept de pataphysique définie dans Faustroll comme « la science des solutions imaginaires qui accorde symboliquement aux linéaments les propriétés des objets décrits par leur virtualité ». La méthode ici définie consiste donc à utiliser la puissance de calcul brute des processeurs pour explorer le champ des possibles que permettent ces déterminations. C’est en essayant de construire des variations du texte, comme pouvaient le faire les membres de l’Oulipo (Ouvroir de Littérature Potentielle) que l’on peut imaginer écrire une littérature potentielle comme les Cent mille milliards de poèmes de Raymond Queneau ou le roman Alphabetical Africa de l’écrivain autro-américain Walter Abish. On peut à l’inverse examiner les différentes variations ou déformations de l’œuvre pour en dégager des lectures potentielles.
Ramsay présente de multiples exemples de cette méthode pataphysico-critrique au fil de l’ouvrage. L’accent est bien sûr mis sur des œuvres dans lesquelles la dimension formelle joue un rôle particulièrement important, qu’il s’agisse de Faustroll d’Alfred Jarry, du Yi Ching ou Du roman Les vagues de Virginia Woolf. L’auteur a toutefois délibérément choisi d’autres textes dans lesquels sa méthode semble moins féconde comme Lumière d’août de William Faulkner, les lectures que fait Saussure de la poésie latine ou encore Au cœurdes ténèbres de Joseph Conrad. On pourra regretter que la plupart de ces analyses fassent référence à des outils informatiques (HyperPo, WordHoard, TAPoR, MONK, etc.) que le format de l’ouvrage ne permet pas de détailler plus avant. Ce détail ne devrait pas dissuader 289les lecteurs potentiels de découvrir une approche de la critique littéraire résolument originale.
Stephen Ramsay est professeur à l’Université de Nebraska-Lincoln au département d’Anglais. Il s’est spécialisé dans les questions philosophiques relatives à l’usage des technologies au sein des humanités digitales.
Nathanaël Gilbert
290David W. Bates, “Unity, Plasticity, Catastrophe : Order and Pathology in the Cybernetic Era” in Catastrophes : A History and Theory of an Operative Concept, ed. Andreas Killen and Nitzan Lebovic, De Gruyter, 2014.
Dans cet article, D. Bates propose une relecture de la pensée cybernétique du début du xxe siècle à la lumière de la théorie des catastrophes élaborée par le mathématicien R. Thom dans les années 60. À l’encontre de la critique classique de la cybernétique, qui lui reproche sa tendance à réduire les êtres vivants à de simples mécanismes, D. Bates montre que le projet cybernétique s’est nourri des réflexions sur la capacité de transformation de l’organisme vivant ou sur la plasticité du cerveau humain. En mettant au jour le rôle essentiel et productif de la catastrophe dans le maintien de l’unité de systèmes complexes, ces travaux ont permis aux théoriciens de la machine automatique de penser positivement le phénomène de panne, et de s’interroger sur l’idée d’une « pathologie de la machine ». Il s’agit donc d’envisager sous un jour nouveau l’héritage du moment cybernétique, à l’origine de la révolution d’après-guerre : l’avènement d’une société d’information globale. En se focalisant sur le rôle constitutif de la faille, de la déviance et de l’invention dans le maintien de l’unité d’un système, une telle interprétation de la pensée cybernétique implique de repenser les rapports entre autonomie, automaticité et désautomatisation.
La théorie cybernétique estompe les frontières entre êtres vivants et objets technologiques sophistiqués, pour les appréhender tous deux comme des mécanismes capables de répondre de manière flexible à un environnement changeant, tout en conservant leur unité. Le fonctionnement de ces êtres adaptatifs (vivants ou machiniques) s’explique alors par un processus de rétroaction négative, qui leur permet de se maintenir en état d’équilibre homéostatique, en dépit des chocs ou des transformations de leur environnement.
C’est justement contre cette notion de mécanisme rétroactif que Thom élabore sa théorie des catastrophes. Selon lui, la rétroaction ne peut pas être invoquée pour expliquer la stabilité des processus biologiques. Le maintien de son unité par l’organisme (au cours de son développement ou dans des conditions environnementales 291changeantes) doit être décrit comme une série de transformations topologiques de sa structure formelle inhérente. L’apparition des formes biologiques constitue une suite de « catastrophes mathématiques ». Ces catastrophes ne peuvent donc plus être pensées comme des événements venant affecter l’organisme de l’extérieur et menacer son existence. Elles doivent être comprises comme des tournants soudains, sources de réorganisation interne. Quand le choc est trop grand, l’organisme entre dans un état d’indétermination qualitative : la correction de la déviation locale ne suffit plus mais implique une restructuration globale du système. L’état pathologique ne constitue donc pas une anomalie, mais une phase de transition, menant à une nouvelle forme de l’être.
Or, cette capacité de réorganisation propre aux organismes vivants n’a pas d’équivalent technologique : dans les systèmes mécaniques, les parties jouent un rôle prédéterminé et leur organisation en un tout leur est imposée de l’extérieur. La théorie de Thom renoue ainsi avec la distinction entre machine et organisme établie par Canguilhem : alors que la machine, toujours soumise à des finalités externes, répond aux normes rationnelles d’identité, de consistance et de prédictibilité, l’organisme, non assujetti à un ordre prédéfini, est capable de surmonter les crises par une improvisation authentique, grâce à la polyvalence de ses parties et la flexibilité de sa structure. La théorie de la catastrophe semble mettre en question ce que l’on a pour habitude de considérer comme les deux thèses fondamentales de la cybernétique, à savoir une analogie entre vie organique et comportement automatique, et une opposition manichéenne entre maintien d’ordre interne et menace extérieure de désordre.
Pourtant, Bates entend montrer que loin de se résumer à ces deux principes, le projet cybernétique demeure incompréhensible hors de son inscription dans l’ensemble des recherches qui se sont développées au début du xxe siècle autour du lien entre unité des systèmes, plasticité et choc catastrophique. Les travaux de Goldstein ont montré que l’unité des êtres vivants ne repose pas sur la préservation d’une structure prédéterminée, mais sur la constante recherche d’ordre par l’organisme, qui se réajuste sans cesse au contact de situations problématiques. Les recherches neurologiques de Lashley, Sherrington ou Luria ont montré l’impossibilité de localiser les fonctions cognitives, du fait de la flexibilité 292du système nerveux, qui contourne les lésions physiologiques en redistribuant intégralement l’activité cérébrale dans ses différentes parties. Dans les deux cas, la continuité d’un système, sa persévérance dans l’existence, ne repose pas sur sa capacité à répondre aux changements de conditions en maintenant une intégrité morphologique prédéterminée, mais sur sa plasticité, sur son aptitude à se donner de nouvelles structures pour compenser les pertes dues à un choc ou pour faire face à des circonstances imprévues.
Les fondateurs de la cybernétique, comme Wiener ou von Neumann, étaient nourris de ces recherches sur le cerveau et l’organisme. Loin de négliger les situations de désordres pathologiques, le projet cybernétique comprenait dès son origine des ambitions médicales (identifier les origines de l’instabilité dans les systèmes complexes pour trouver le moyen d’y remédier). La plupart des théoriciens de la discipline comme McCulloch, Ashby, Rosenblueth ou Cannon étaient d’ailleurs des médecins (neurologues, psychiatres, cardiologues, physiologistes). L’introduction de la notion fondamentale d’homéostasie par Cannon est liée à l’étude des réactions catastrophiques des organismes en situation d’urgence. Sa reprise par Ashby à travers la conception de l’Homéostat constitue une tentative de construction d’un système mécanique capable de modifier sa structure afin de retrouver un équilibre dynamique. L’entreprise cybernétique cherche donc à comprendre comment une défaillance peut devenir une opportunité d’invention, afin de construire des machines qui posséderaient cette capacité de réorganisation radicale, en alliant fixité de structure et plasticité adaptative.
Si machines et organismes peuvent être comparés, c’est donc en tant qu’ils constituent des lieux d’ordre et de désordre, de stabilité et d’instabilité, potentiellement capables de faire d’un état pathologique la source d’un comportement radicalement nouveau et imprévisible. Cet intérêt des cybernéticiens pour la dimension créative de la panne invite à penser de nouvelles formes de symbioses entre hommes, machines et organismes, à une époque d’automatisation des activités de pensée et de technicisation des corps.
David Bates est professeur de rhétorique à l’université de Berkeley (Californie) et ancien directeur du Center of New Media à Berkeley. Ses principaux thèmes de 293recherche sont l’histoire de la politique et de la pensée juridique ainsi que l’histoire des sciences, des technologies, des médias et de la cognition. Il travaille actuellement sur un livre, Human Insight : An Artificial History of Natural Intelligence, qui retrace les conceptions de l’intelligence humaine dans la science moderne, et vise à fournir une histoire critique de l’intelligence artificielle.
Anne Alombert
École normale supérieure de Lyon
Université Paris Ouest – Nanterre – La Défense
- CLIL theme: 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
- ISBN: 978-2-406-06193-9
- EAN: 9782406061939
- ISSN: 2497-1650
- DOI: 10.15122/isbn.978-2-406-06193-9.p.0279
- Publisher: Classiques Garnier
- Online publication: 09-29-2016
- Periodicity: Biannual
- Language: French