De la gouvernementalité algorithmique au régime de vérité numérique Discussion entre Antoinette Rouvroy et Bernard Stiegler
- Publication type: Journal article
- Journal: Études digitales
2016 – 2, n° 2. Le gouvernement des données - Author: Alombert (Anne)
- Pages: 183 to 193
- Journal: Digital Studies
DE LA GOUVERNEMENTALITÉ ALGORITHMIQUE
AU RÉGIME DE VéRITÉ NUMÉRIQUE
Discussion entre Antoinette Rouvroy
et Bernard Stiegler
Séminaire Digital Studies – 7 octobre 2014
Lors de la séance du 7 octobre 2014 du séminaire Digital Studies1, Antoinette Rouvroy, docteure en droit et chercheure du FNRS à l’Université de Namur, est intervenue sur les questions de la gouvernementalité algorithmique et du régime de vérité numérique. Son intervention a été suivie d’une discussion avec Bernard Stiegler, philosophe, directeur de l’Institut de recherche et d’innovation du Centre Georges Pompidou et président de l’association Ars Industrialis. Les recherches développées par Antoinette Rouvroy autour de la question de 184la « gouvernementalité algorithmique2 » ont pour fonction d’interroger le « nouveau pouvoir statistique » qui s’exerce à travers la collecte de quantités massives de données numériques et leur traitement automatique par le calcul intensif (Big Data). Dans l’ouvrage intitulé La société automatique, t. 1 L’avenir du travail3, Bernard Stiegler commente et discute les analyses d’Antoinette Rouvroy, dans le cadre de réflexions plus générales sur les enjeux psychiques, sociaux, économiques, et juridiques de l’automatisation généralisée et de la transformation numérique des sociétés. La discussion entre Bernard Stiegler et Antoinette Rouvroy amorcée lors de ce séminaire s’est poursuivie lors des Entretiens du Nouveau Monde Industriel, les 5 et 6 décembre 20144. Cette séance avait pour fonction d’interroger les nouvelles formes de savoirs et de pouvoirs qui se constituent et s’exercent à l’époque des Big Data. Il s’agissait d’envisager la possibilité de renverser les effets toxiques de la gouvernementalité algorithmique, en développant les potentialités herméneutiques et contributives des technologies numériques.
L’IDÉOLOGIE DES BIG DATA :
LE FANTASME D’UN SAVOIR À MÊME LE RÉEL
Selon Antoinette Rouvroy, les nouvelles pratiques statistiques mises en œuvre à travers les Big Data, le data mining et les data analytics mettent en crise la notion de régimes de vérité. La collecte de données en quantité massive, leur exploitation et leur analyse automatisées grâce à des algorithmes en vue d’établir des corrélations statistiques rend possible de nouveaux types de modélisation du monde, qui permettent de contourner toute épreuve, tout événement, toute interprétation et toute critique. Après avoir analysé ces nouvelles pratiques statistiques 185et l’idéologie qui les accompagne, en a souligné les limites, en mettant au jour les dimensions de la vie humaine qui semblent résister à sa numérisation. Elle a surtout souligné les transformations politiques et juridiques impliquées par ce nouveau mode de gouvernement des conduites et de fabrication des normes, qui semble neutraliser les possibilités de réflexion, de résistance ou de contestation – que le droit avait pour fonction de ménager.
Antoinette Rouvroy a tout d’abord insisté sur le travail extrêmement sophistiqué de production des données, qui sont nettoyées et purifiées de leurs significations singulières et contextuelles afin de pouvoir être traitées par les algorithmes. Les données, même « brutes », sont donc loin d’émaner spontanément du monde. Néanmoins, ces nouveaux modes de catégorisation du réel s’accompagnent du développement d’une certaine idéologie, selon laquelle les modèles corrélationnels établis à partir des données récoltées fourniraientt un accès à une réalité ou à une actualité pure. On n’aurait plus affaire à une production de connaissances à propos du monde, mais à la découverte d’un savoir immanent au monde, à une modélisation du social à même le social, qui pourrait se passer de toute épreuve, de toute critique et de toute interprétation dans l’après-coup, sous prétexte que toute source d’incertitude serait neutralisée.
Antoinette Rouvroy montre en effet que la subjectivité, la sélectivité et la virtualité – qui constituent des facteurs d’incertitude incompressibles – semblent être contournées par ces nouvelles pratiques statistiques. Les données fournies par les réseaux sociaux ou les objets connectés semblent en effet captées à même le réel, sans qu’aucune hypothèse a priori ni aucune théorie humaine ne précède leur saisie. De plus, contrairement à celle des données statistiques traditionnelles, la récolte des données numériques ne semble impliquer aucun tri : les capacités de gestion des ordinateurs et des data centers permettent de tout prendre en compte, même les points les plus éloignés de la moyenne, qui étaient auparavant ignorés comme autant de facteurs de bruit.
Ces sentiments d’objectivité et d’exhaustivité vont de pair avec une neutralisation de la dimension virtuelle du réel. Antoinette Rouvroy désigne ainsi la dimension de possibilité dont tremble toute forme de présence ou d’actualité : les souvenirs, les projets ou les rêves singuliers qui constituent une réserve pour l’évolution et la transformation des individus, et qui rendent leurs conduites incalculables et inanticipables. 186En effet, l’application d’algorithmes à des quantités massives de données permet d’établir des corrélations qui deviendront opérationnelles avant même d’être vérifiées. De part leur quantité et leur vélocité, les Big Data impliquent donc un changement dans les modes de rationalité : la récolte des données s’effectue moins en vue de rechercher les causes ou les lois des phénomènes que dans le but de prévoir leur survenue – voire de la produire, dans la mesure où les modèles statistiques rétro-agissent en temps réel sur les environnements informationnels ou physiques des individus.
LA GOUVERNEMENTALITÉ ALGORITHMIQUE
Un nouveau mode de gestion des conduites
et de fabrication des normes
Antoinette Rouvroy insiste en effet sur la dimension préemptive des calculs statistiques : il ne s’agit plus seulement de prévoir, mais bien d’agir sur l’avenir, pour que certaines choses soient ou ne soient pas actualisées. Un nouveau mode de gouvernement des conduites se met ainsi en place : sous couvert de personnalisation des offres de services ou d’informations, les individus sont catégorisés dans des profils, qui les affectent en retour sous forme de signaux ou d’alertes attirant leurs attentions, stimulant leurs réflexes, ou les incitant à l’acte d’achat. Les normes n’apparaissent plus de manière explicites, mais sont générées en temps réel, court-circuitant ainsi toute possibilité de critique ou de contestation. Là où l’interdiction légale ménageait nécessairement la possibilité de la désobéissance, cette possibilité disparaît quand des modèles comportementaux sont imposés aux individus par l’adaptation automatique de leurs environnements. Ce type de gouvernement ne s’adresse pas à des sujets dotés d’entendement, de volonté ou de réflexivité : les individus sont considérés comme des agrégats temporaires de données exploitables en masse, à échelle industrielle.
S’il apparaît donc bien nécessaire de protéger les informations personnelles des individus, c’est surtout le droit des individus à ne pas être jugés sur la base de leurs données et assimilés à leurs profils que la 187gouvernementalité algorithmique semble menacer : Antoinette Rouvroy souligne ainsi le risque du passage d’une justice sociale à une justice actuarielle, dans laquelle chacun doit payer pour son propre risque, en fonction des informations récoltées sur lui et transmises ou vendues aux compagnies d’assurances.
Cette mise en nombre de la vie affecte aussi la manière qu’ont les individus de se construire, de se raconter et de se concevoir : chaque individu devient sa propre référence statistique, contraint de se comparer aux autres sur un plan seulement quantitatif, au lieu de se représenter et de se raconter mutuellement. Les données semblent parler pour elles-mêmes, dispensant les individus de s’exposer les uns aux autres, et de s’engager à produire de la vérité, à travers des actes (comme l’aveu, le témoignage, ou la parresia) toujours risqués et réglés par des procédés et des institutions. En court-circuitant les pratiques subjectivantes du langage et de l’interprétation, la gouvernementalité algorithmique semble mettre en crise la notion même de régime de vérité, et la constitution d’un monde commun.
En effet, cloisonnés dans leurs environnements personnalisés ou profilés, les individus se voient moins souvent exposés à l’imprévu et à l’altérité : or, Antoinette Rouvroy rappelle que c’est à partir de telles rencontres que se constitue le commun, qui procède toujours des incertitudes, des désaccords, de la diversité et de la disparité, sans lesquels le besoin de dialogue, de délibération et de relation ne se ferait même pas sentir.
LIMITES ET RÉSISTANCE
À LA MISE EN NOMBRE DE LA VIE
En dépit des aspects immanents et totalisants qui semblent caractériser ce nouveau savoir-pouvoir, Antoinette Rouvroy soutient que certaines dimensions du réel et de la vie résistent à leur numérisation, et constituent ainsi des points d’appui pour lutter contre les effets de la gouvernementalité algorithmique. Ces lieux de récalcitrance sont de plusieurs ordres. Ce qui relève de l’ineffectué dans l’histoire – les 188projets et les utopies qui ne se sont jamais actualisés – ne peut pas être enregistré et numérisé : ils constituent néanmoins une ressource politique et culturelle fondamentale. De même, ce qui relève des erreurs, des errances, des ratures et des ratés se voit systématiquement effacé par les appareils numériques, alors que c’est souvent dans ces écarts ou ces échecs que se constitue de l’improbable nouveauté. Ce sont dans les accidents que s’invente l’avenir : leur remémoration ou leur traçage peut être à l’origine de découvertes passionnantes, et les techniques matérielles et logicielles pourraient permettre de les archiver, au lieu de servir à produire en temps réel un futur pré-programmé.
En dépit de la performativité des prédictions algorithmiques, ce qui relève de l’ineffectué de l’avenir présente aussi une dimension d’irréductible imprévisibilité, qui échappe aux modèles corrélationnels statistiquement établis. Ce qui relève des affects et de la corporéité (les émotions, la souffrance) ainsi que la capacité à se laisser affecter par autrui, ou par un événement imprévu, constituent aussi des dimensions essentielles de la vie humaine et collective, qui demeurent néanmoins difficilement numérisables.
Antoinette Rouvroy insiste en effet sur la résistance que représente la mansuétude ou l’empathie face au processus de numérisation, et souligne ainsi les enjeux soulevés par les projets de robotisation de la justice, qui tente d’automatiser les évaluations des juges, en les soumettant à des systèmes de recommandation basés sur des modèles comportementaux, censés permettre de gagner en impartialité, en rapidité et en effectivité. Outre que la pitié ou la compassion distinguent un jugement automatique basé sur des calculs de probabilité d’un jugement humain prenant en compte les circonstances des actes et les effets de la punition, une telle transformation pose aussi de nombreuses questions concernant les distinctions entre fait et droit, entre calcul et décision, ou entre entendement et raison. Ce sont sur ces questions que s’est ouverte l’intervention de Bernard Stiegler, en réponse au propos d’Antoinette Rouvroy.
189REPENSER LA DIFFÉRENCE ENTRE FAITS ET DROIT
ET LA DISTINCTION ENTRE RAISON ET ENTENDEMENT
En effet, lors de la discussion qui a suivi l’intervention d’Antoinette Rouvroy, Bernard Stiegler a insisté sur la nécessité de repenser la différence du fait et du droit, afin de comprendre pourquoi le droit n’est jamais réductible au fait. Bernard Stiegler soutient en effet que pour tout juge humain, le droit n’est pas assimilable aux faits : le droit n’existe pas, mais consiste comme une promesse, comme une protention ou un désir collectif, qui ne tient jamais en réalité, demeure toujours à venir, mais permet de lutter contre les injustices en transformant les faits. Cette différence entre fait et droit est ce que partagent les juristes avec les scientifiques et les philosophes, ainsi que tous ceux qui raisonnent de manière rationnelle. Or, l’idéologie des Big Data mise au jour par Antoinette Rouvroy met en question l’irréductibilité du droit au fait : c’est ce dont témoigne l’article de Chris Anderson intitulé « The end of theory5 », qui soutient que la méthode scientifique est devenue obsolète, compte tenu de la quantité massive de données récoltées. Selon cette perspective, les data scientist pourraient se passer des théories et des modèles, donc des lois et du droit, et se contenter de corrélations établies entre les faits grâce aux algorithmes. Bref, le calcul intensif appliqué aux Big Data permettrait de suspendre l’exercice de la raison et du débat.
Or, en s’appuyant sur la distinction kantienne entre entendement et raison, Bernard Stiegler rappelle que les raisonnements rationnels ne sont pas réductibles au calcul probabilitaire ou automatique : ils comportent toujours une part de décision, d’invention, et de désautomatisation qui les rend intrinsèquement improbables. Néanmoins, si la faculté synthétique que constitue la raison se distingue intrinsèquement de la faculté analytique que constitue l’entendement, elle a pourtant besoin d’elle pour fonctionner : autrement dit, il ne s’agit pas de rejeter les nouveaux modes de collecte et de calcul automatique des données, mais plutôt de les articuler avec des processus rationnels, susceptibles d’interpréter les données fournies par les nouveaux instruments de récolte et de traitement.
190LES « ORGANOLOGIES DE LA VÉRITÉ »
Introduire des possibilités d’interprétation
dans les machines computationnelles
Selon Bernard Stiegler, le problème n’est donc pas tant la numérisation que la réduction du numérique au calcul, aux dépens de l’interprétation : il insiste ainsi sur la nécessité d’inventer des outils ou des machines numériques qui ne soient pas seulement computationnelles, mais qui permettent aussi de reconstituer des processus d’interprétation, en réintroduisant dans le numérique des possibilités de désautomatisation, de bifurcation et d’invention. Autrement dit, si le fonctionnement actuel des technologies numériques met en péril la constitution d’un régime de vérité, cet état de fait n’est pas immuable : Bernard Stiegler soutient en effet que la production des énoncés véritatifs, ainsi que celle des protocoles et des pratiques permettant de les établir, évolue avec la transformation des supports mnémotechniques.
Bernard Stiegler conçoit ces supports comme des rétentions tertiaires, c’est-à-dire comme des artefacts matériels permettant de conserver les traces d’expériences temporelles, qui se spatialisent en s’extériorisant. C’est ce processus de discrétisation et de détemporalisation des flux qu’il nomme grammatisation, et dont les technologies numériques constituent un stade6. Les modes de rationalité, de pensées et de production de vérité évoluent donc avec les transformations des rétentions tertiaires, qui rendent possible certains types de raisonnement, et qui permettent surtout de transmettre, de partager et de pratiquer les savoirs (par exemple, c’est parce que l’écriture alphabétique permet de tracer, de conserver étape par étape les démonstrations, et de les soumettre à la discussion publique que le raisonnement géométrique 191devient possible). C’est pourquoi Bernard Stiegler soutient la possibilité, et surtout la nécessité, de faire émerger un nouveau régime de vérité à partir des rétentions tertiaires numériques, en leur rendant leur fonction de supports de savoirs.
LE CONTEXTE DE L’AUTOMATISATION GÉNÉRALISÉE
ET DE LA FIN DE L’EMPLOI
De la gouvernementalité algorithmique
à l’économie contributive ?
Selon lui, le fonctionnement des technologies numériques (au service de la gouvernementalité algorithmique et de la data economy) non seulement peut changer, mais doit absolument être transformé : il soutient en effet que le système technique fonctionne aujourd’hui de manière entropique. Autrement dit, il tend à sa propre auto-destruction, en épuisant les ressources (matérielles mais aussi psychiques et sociales) sur lesquelles il repose – en exploitant par exemple les énergies psychiques des individus par l’activation de leurs pulsions à consommer, en détruisant la diversité des langues à travers le « capitalisme linguistique7 », en court-circuitant les organisations sociales à travers le développement du capitalisme de plates-formes, etc. De même, l’automatisation généralisée et le remplacement progressif des employés par des robots constituent des facteurs d’entropie au niveau économique : la productivité augmente mais les salaires baissent et les emplois disparaissent, et le modèle devient insolvable.
Selon Bernard Stiegler, il est donc urgent d’adopter ces évolutions technologiques en changeant de modèle économique : il soutient notamment que le temps rendu disponible par l’automatisation pourrait être redistribué équitablement, et mis au service de la production 192d’intelligence collective, de communs et de savoirs, grâce à une nouvelle utilisation des technologies numériques et la mise en place d’un revenu contributif. Ainsi transformées et utilisées, les technologies numériques pourraient devenir des facteurs de néguentropie, c’est-à-dire d’évolution, de diversification et d’invention psycho-sociale, permettant de lutter contre les idéologies transhumanistes qui s’emparent actuellement du pouvoir de leurre inhérent à l’apparition d’une nouvelle technique.
INDIVIDUER LES CONCEPTS PHILOSOPHIQUES HÉRITÉS
POUR PENSER LES ENJEUX CONTEMPORAINS
Bernard Stiegler soutient ainsi la nécessité de repenser la question de l’idéologie dans son rapport à la technique, telle que la développe Marx et Engels dans L’idéologie allemande, et de discuter la critique de la notion d’idéologie par les penseurs post-structuralistes. De manière plus générale, il insiste sur la nécessité de questionner l’héritage philosophique des années 60, qui, loin d’être devenu caduque, doit cependant être transformé. Il s’agit de reprendre les problématiques ouvertes par Foucault, Deleuze ou Guattari (comme les questions de la multitude ou de l’immanence), mais en les individuant, afin de les rendre opérantes dans le contexte actuel.
Antoinette Rouvroy a elle aussi insisté sur la nécessité de discuter les penseurs de la critique et de l’émancipation à la lumière des problèmes contemporains : de nombreux concepts (comme ceux de rhizome ou d’immanence) avaient été développés dans une perspective stratégique, pour critiquer des structures hiérarchiques et oppressives, qui ont peu à peu disparu avec l’avènement de la gouvernance, et la dilution et l’horizontalisation de l’autorité qui l’ont accompagnée. Si les questions ouvertes et les raisonnements élaborés par les auteurs des années 60 demeurent essentiels aujourd’hui, une lecture prétendument exacte, impartiale et objective de leurs théories ne semble pas suffire pour penser les nouveaux modèles de gouvernement et les nouvelles formes d’idéologies. Il s’agit donc d’éviter la répétition 193automatique des auteurs et de lutter contre la paresse de la pensée, en réinterprétant les textes, et en faisant bifurquer les concepts vers de nouveaux enjeux.
Anne Alombert
Agrégée de philosophie
et doctorante –
Université Paris Ouest Nanterre
1 Le séminaire Digital Studies, organisé sous la direction de Bernard Stiegler, a pour fonction d’interroger le statut de la technique dans le devenir des savoirs. Les digital studies désignent un champ de recherches transdisciplinaires, qui pose en principe que tout savoir suppose une artefactualité technique, à la fois pour pouvoir se transmettre et pour pouvoir se transformer. Le champ des digital studies ne se limite donc pas à l’étude des technologies numériques, mais concerne l’étude des techniques et technologies intellectuelles en général, sous l’angle de leurs effets sur les savoirs en général (savoir faire, savoir vivre, savoir théorique). Dans ce cadre, il a aussi pour fonction d’interroger les bouleversements épistémiques et épistémologiques (au sein des différentes disciplines académiques) produit par la numérisation des instruments scientifiques et du milieu mnémotechnique, dans le but d’ouvrir un débat sur le statut de ces technologies dans les sociétés présentes et à venir, et de faire émerger un collectif international d’échanges autour de ces questions. Ce séminaire, co-organisé par Ariane Mayer, Paul-Émile Geoffroy et Anne Alombert en 2014 et 2015, dans le cadre de l’Institut de Recherche et d’Innovation du Centre Georges Pompidou, s’est poursuivi en novembre 2016 à la Maison des sciences de l’homme Paris Nord, dans le cadre de la Chaire de Recherche Contributive de Plaine Commune. Les vidéos des différentes séances sont visibles aux adresses suivantes : URL : https://digital-studies.org/wp/seminaire-digital-studies/, https://digital-studies.org/wp/seminaire-digital-studies-2015-2016/, et https://enmi-conf.org/wp/enmi16/
2 Le concept de gouvernementalité agorithmique est développé par A. Rouvroy et T. Berns, dans un article intitulé « Gouvernementalité algorithmique et perspective d’émancipation. Le disparate comme condition d’individuation par la relation ? », in Réseaux, no 177, 2013/1, p. 163-196.
3 Voir Bernard Stiegler, La société automatique, t. 1 L’avenir du travail, Paris, Fayard, 2015 (notamment chapitres 2 et 3).
4 Les Entretiens du Nouveau Monde Industriel 2014 sur «La vérité du numérique» sont consultables à l’adresse suivante : URL : https://enmi-conf.org/wp/enmi14/
5 Voir C. Anderson, « The end of theory : the data deluge makes the scientific method obsolet », URL : https://www.wired.com/category/business/
6 La rétention tertiaire littérale que constitue l’écriture alphabétique permet de spatialiser le flux des paroles sous forme de lettres, la rétention mécanique que constitue une machine permet d’objectiver et de discrétiser le flux des gestes, les rétentions analogiques permettent d’extérioriser les flux perceptifs – de telles rétentions supposent à chaque fois la discrétisation du flux dès lors détemporalisé. Pour un approfondissement des notions de rétention tertiaire et de grammatisation, voir : URL : http://arsindustrialis.org/attention et http://arsindustrialis.org/grammatisation.
7 Le « capitalisme linguistique » est une notion développée par Frédéric Kaplan pour décrire l’exploitation marchande et la destruction progressive des pratiques linguistiques par les automates de Google. Pour plus de détails, voir l’article de F. Kaplan et la séance du séminaire Digital Studies consacrés à cette question : URL : https://www.monde-diplomatique.fr/2011/11/KAPLAN/46925 et https://digital-studies.org/wp/frederic-kaplan-et-warren-sack-02122014/.
- CLIL theme: 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
- ISBN: 978-2-406-07064-1
- EAN: 9782406070641
- ISSN: 2497-1650
- DOI: 10.15122/isbn.978-2-406-07064-1.p.0183
- Publisher: Classiques Garnier
- Online publication: 08-12-2017
- Periodicity: Biannual
- Language: French