Aller au contenu

Classiques Garnier

De la gouvernementalité algorithmique au régime de vérité numérique Discussion entre Antoinette Rouvroy et Bernard Stiegler

  • Type de publication : Article de revue
  • Revue : Études digitales
    2016 – 2, n° 2
    . Le gouvernement des données
  • Auteur : Alombert (Anne)
  • Résumé : La séance du 7 octobre 2014 du séminaire Digital Studies a donné lieu à une communication d’Antoinette Rouvroy qui est intervenue sur les questions de la gouvernementalité algorithmique et du régime de vérité numérique. Son intervention a été suivie d’une discussion avec Bernard Stiegler. Le débat a tourné autour des nouvelles formes du pouvoir statistique qui s’exerce à travers la collecte de quantités massives de données numériques et leur traitement automatique par le calcul intensif.
  • Pages : 183 à 193
  • Revue : Études digitales
  • Thème CLIL : 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
  • EAN : 9782406070641
  • ISBN : 978-2-406-07064-1
  • ISSN : 2497-1650
  • DOI : 10.15122/isbn.978-2-406-07064-1.p.0183
  • Éditeur : Classiques Garnier
  • Mise en ligne : 12/08/2017
  • Périodicité : Semestrielle
  • Langue : Français
183

DE LA GOUVERNEMENTALITÉ ALGORITHMIQUE
AU RÉGIME DE VéRITÉ NUMÉRIQUE

Discussion entre Antoinette Rouvroy
et Bernard Stiegler

Séminaire Digital Studies – 7 octobre 2014

Lors de la séance du 7 octobre 2014 du séminaire Digital Studies1, Antoinette Rouvroy, docteure en droit et chercheure du FNRS à lUniversité de Namur, est intervenue sur les questions de la gouvernementalité algorithmique et du régime de vérité numérique. Son intervention a été suivie dune discussion avec Bernard Stiegler, philosophe, directeur de lInstitut de recherche et dinnovation du Centre Georges Pompidou et président de lassociation Ars Industrialis. Les recherches développées par Antoinette Rouvroy autour de la question de 184la « gouvernementalité algorithmique2 » ont pour fonction dinterroger le « nouveau pouvoir statistique » qui sexerce à travers la collecte de quantités massives de données numériques et leur traitement automatique par le calcul intensif (Big Data). Dans louvrage intitulé La société automatique, t. 1 Lavenir du travail3, Bernard Stiegler commente et discute les analyses dAntoinette Rouvroy, dans le cadre de réflexions plus générales sur les enjeux psychiques, sociaux, économiques, et juridiques de lautomatisation généralisée et de la transformation numérique des sociétés. La discussion entre Bernard Stiegler et Antoinette Rouvroy amorcée lors de ce séminaire sest poursuivie lors des Entretiens du Nouveau Monde Industriel, les 5 et 6 décembre 20144. Cette séance avait pour fonction dinterroger les nouvelles formes de savoirs et de pouvoirs qui se constituent et sexercent à lépoque des Big Data. Il sagissait denvisager la possibilité de renverser les effets toxiques de la gouvernementalité algorithmique, en développant les potentialités herméneutiques et contributives des technologies numériques.

LIDÉOLOGIE DES BIG DATA :
LE FANTASME DUN SAVOIR À MÊME LE RÉEL

Selon Antoinette Rouvroy, les nouvelles pratiques statistiques mises en œuvre à travers les Big Data, le data mining et les data analytics mettent en crise la notion de régimes de vérité. La collecte de données en quantité massive, leur exploitation et leur analyse automatisées grâce à des algorithmes en vue détablir des corrélations statistiques rend possible de nouveaux types de modélisation du monde, qui permettent de contourner toute épreuve, tout événement, toute interprétation et toute critique. Après avoir analysé ces nouvelles pratiques statistiques 185et lidéologie qui les accompagne, en a souligné les limites, en mettant au jour les dimensions de la vie humaine qui semblent résister à sa numérisation. Elle a surtout souligné les transformations politiques et juridiques impliquées par ce nouveau mode de gouvernement des conduites et de fabrication des normes, qui semble neutraliser les possibilités de réflexion, de résistance ou de contestation – que le droit avait pour fonction de ménager.

Antoinette Rouvroy a tout dabord insisté sur le travail extrêmement sophistiqué de production des données, qui sont nettoyées et purifiées de leurs significations singulières et contextuelles afin de pouvoir être traitées par les algorithmes. Les données, même « brutes », sont donc loin démaner spontanément du monde. Néanmoins, ces nouveaux modes de catégorisation du réel saccompagnent du développement dune certaine idéologie, selon laquelle les modèles corrélationnels établis à partir des données récoltées fourniraientt un accès à une réalité ou à une actualité pure. On naurait plus affaire à une production de connaissances à propos du monde, mais à la découverte dun savoir immanent au monde, à une modélisation du social à même le social, qui pourrait se passer de toute épreuve, de toute critique et de toute interprétation dans laprès-coup, sous prétexte que toute source dincertitude serait neutralisée.

Antoinette Rouvroy montre en effet que la subjectivité, la sélectivité et la virtualité – qui constituent des facteurs dincertitude incompressibles – semblent être contournées par ces nouvelles pratiques statistiques. Les données fournies par les réseaux sociaux ou les objets connectés semblent en effet captées à même le réel, sans quaucune hypothèse a priori ni aucune théorie humaine ne précède leur saisie. De plus, contrairement à celle des données statistiques traditionnelles, la récolte des données numériques ne semble impliquer aucun tri : les capacités de gestion des ordinateurs et des data centers permettent de tout prendre en compte, même les points les plus éloignés de la moyenne, qui étaient auparavant ignorés comme autant de facteurs de bruit.

Ces sentiments dobjectivité et dexhaustivité vont de pair avec une neutralisation de la dimension virtuelle du réel. Antoinette Rouvroy désigne ainsi la dimension de possibilité dont tremble toute forme de présence ou dactualité : les souvenirs, les projets ou les rêves singuliers qui constituent une réserve pour lévolution et la transformation des individus, et qui rendent leurs conduites incalculables et inanticipables. 186En effet, lapplication dalgorithmes à des quantités massives de données permet détablir des corrélations qui deviendront opérationnelles avant même dêtre vérifiées. De part leur quantité et leur vélocité, les Big Data impliquent donc un changement dans les modes de rationalité : la récolte des données seffectue moins en vue de rechercher les causes ou les lois des phénomènes que dans le but de prévoir leur survenue – voire de la produire, dans la mesure où les modèles statistiques rétro-agissent en temps réel sur les environnements informationnels ou physiques des individus.

LA GOUVERNEMENTALITÉ ALGORITHMIQUE

Un nouveau mode de gestion des conduites
et de fabrication des normes

Antoinette Rouvroy insiste en effet sur la dimension préemptive des calculs statistiques : il ne sagit plus seulement de prévoir, mais bien dagir sur lavenir, pour que certaines choses soient ou ne soient pas actualisées. Un nouveau mode de gouvernement des conduites se met ainsi en place : sous couvert de personnalisation des offres de services ou dinformations, les individus sont catégorisés dans des profils, qui les affectent en retour sous forme de signaux ou dalertes attirant leurs attentions, stimulant leurs réflexes, ou les incitant à lacte dachat. Les normes napparaissent plus de manière explicites, mais sont générées en temps réel, court-circuitant ainsi toute possibilité de critique ou de contestation. Là où linterdiction légale ménageait nécessairement la possibilité de la désobéissance, cette possibilité disparaît quand des modèles comportementaux sont imposés aux individus par ladaptation automatique de leurs environnements. Ce type de gouvernement ne sadresse pas à des sujets dotés dentendement, de volonté ou de réflexivité : les individus sont considérés comme des agrégats temporaires de données exploitables en masse, à échelle industrielle.

Sil apparaît donc bien nécessaire de protéger les informations personnelles des individus, cest surtout le droit des individus à ne pas être jugés sur la base de leurs données et assimilés à leurs profils que la 187gouvernementalité algorithmique semble menacer : Antoinette Rouvroy souligne ainsi le risque du passage dune justice sociale à une justice actuarielle, dans laquelle chacun doit payer pour son propre risque, en fonction des informations récoltées sur lui et transmises ou vendues aux compagnies dassurances.

Cette mise en nombre de la vie affecte aussi la manière quont les individus de se construire, de se raconter et de se concevoir : chaque individu devient sa propre référence statistique, contraint de se comparer aux autres sur un plan seulement quantitatif, au lieu de se représenter et de se raconter mutuellement. Les données semblent parler pour elles-mêmes, dispensant les individus de sexposer les uns aux autres, et de sengager à produire de la vérité, à travers des actes (comme laveu, le témoignage, ou la parresia) toujours risqués et réglés par des procédés et des institutions. En court-circuitant les pratiques subjectivantes du langage et de linterprétation, la gouvernementalité algorithmique semble mettre en crise la notion même de régime de vérité, et la constitution dun monde commun.

En effet, cloisonnés dans leurs environnements personnalisés ou profilés, les individus se voient moins souvent exposés à limprévu et à laltérité : or, Antoinette Rouvroy rappelle que cest à partir de telles rencontres que se constitue le commun, qui procède toujours des incertitudes, des désaccords, de la diversité et de la disparité, sans lesquels le besoin de dialogue, de délibération et de relation ne se ferait même pas sentir.

LIMITES ET RÉSISTANCE
À LA MISE EN NOMBRE DE LA VIE

En dépit des aspects immanents et totalisants qui semblent caractériser ce nouveau savoir-pouvoir, Antoinette Rouvroy soutient que certaines dimensions du réel et de la vie résistent à leur numérisation, et constituent ainsi des points dappui pour lutter contre les effets de la gouvernementalité algorithmique. Ces lieux de récalcitrance sont de plusieurs ordres. Ce qui relève de lineffectué dans lhistoire – les 188projets et les utopies qui ne se sont jamais actualisés – ne peut pas être enregistré et numérisé : ils constituent néanmoins une ressource politique et culturelle fondamentale. De même, ce qui relève des erreurs, des errances, des ratures et des ratés se voit systématiquement effacé par les appareils numériques, alors que cest souvent dans ces écarts ou ces échecs que se constitue de limprobable nouveauté. Ce sont dans les accidents que sinvente lavenir : leur remémoration ou leur traçage peut être à lorigine de découvertes passionnantes, et les techniques matérielles et logicielles pourraient permettre de les archiver, au lieu de servir à produire en temps réel un futur pré-programmé.

En dépit de la performativité des prédictions algorithmiques, ce qui relève de lineffectué de lavenir présente aussi une dimension dirréductible imprévisibilité, qui échappe aux modèles corrélationnels statistiquement établis. Ce qui relève des affects et de la corporéité (les émotions, la souffrance) ainsi que la capacité à se laisser affecter par autrui, ou par un événement imprévu, constituent aussi des dimensions essentielles de la vie humaine et collective, qui demeurent néanmoins difficilement numérisables.

Antoinette Rouvroy insiste en effet sur la résistance que représente la mansuétude ou lempathie face au processus de numérisation, et souligne ainsi les enjeux soulevés par les projets de robotisation de la justice, qui tente dautomatiser les évaluations des juges, en les soumettant à des systèmes de recommandation basés sur des modèles comportementaux, censés permettre de gagner en impartialité, en rapidité et en effectivité. Outre que la pitié ou la compassion distinguent un jugement automatique basé sur des calculs de probabilité dun jugement humain prenant en compte les circonstances des actes et les effets de la punition, une telle transformation pose aussi de nombreuses questions concernant les distinctions entre fait et droit, entre calcul et décision, ou entre entendement et raison. Ce sont sur ces questions que sest ouverte lintervention de Bernard Stiegler, en réponse au propos dAntoinette Rouvroy.

189

REPENSER LA DIFFÉRENCE ENTRE FAITS ET DROIT
ET LA DISTINCTION ENTRE RAISON ET ENTENDEMENT

En effet, lors de la discussion qui a suivi lintervention dAntoinette Rouvroy, Bernard Stiegler a insisté sur la nécessité de repenser la différence du fait et du droit, afin de comprendre pourquoi le droit nest jamais réductible au fait. Bernard Stiegler soutient en effet que pour tout juge humain, le droit nest pas assimilable aux faits : le droit nexiste pas, mais consiste comme une promesse, comme une protention ou un désir collectif, qui ne tient jamais en réalité, demeure toujours à venir, mais permet de lutter contre les injustices en transformant les faits. Cette différence entre fait et droit est ce que partagent les juristes avec les scientifiques et les philosophes, ainsi que tous ceux qui raisonnent de manière rationnelle. Or, lidéologie des Big Data mise au jour par Antoinette Rouvroy met en question lirréductibilité du droit au fait : cest ce dont témoigne larticle de Chris Anderson intitulé « The end of theory5 », qui soutient que la méthode scientifique est devenue obsolète, compte tenu de la quantité massive de données récoltées. Selon cette perspective, les data scientist pourraient se passer des théories et des modèles, donc des lois et du droit, et se contenter de corrélations établies entre les faits grâce aux algorithmes. Bref, le calcul intensif appliqué aux Big Data permettrait de suspendre lexercice de la raison et du débat.

Or, en sappuyant sur la distinction kantienne entre entendement et raison, Bernard Stiegler rappelle que les raisonnements rationnels ne sont pas réductibles au calcul probabilitaire ou automatique : ils comportent toujours une part de décision, dinvention, et de désautomatisation qui les rend intrinsèquement improbables. Néanmoins, si la faculté synthétique que constitue la raison se distingue intrinsèquement de la faculté analytique que constitue lentendement, elle a pourtant besoin delle pour fonctionner : autrement dit, il ne sagit pas de rejeter les nouveaux modes de collecte et de calcul automatique des données, mais plutôt de les articuler avec des processus rationnels, susceptibles dinterpréter les données fournies par les nouveaux instruments de récolte et de traitement.

190

LES « ORGANOLOGIES DE LA VÉRITÉ »

Introduire des possibilités dinterprétation
dans les machines computationnelles

Selon Bernard Stiegler, le problème nest donc pas tant la numérisation que la réduction du numérique au calcul, aux dépens de linterprétation : il insiste ainsi sur la nécessité dinventer des outils ou des machines numériques qui ne soient pas seulement computationnelles, mais qui permettent aussi de reconstituer des processus dinterprétation, en réintroduisant dans le numérique des possibilités de désautomatisation, de bifurcation et dinvention. Autrement dit, si le fonctionnement actuel des technologies numériques met en péril la constitution dun régime de vérité, cet état de fait nest pas immuable : Bernard Stiegler soutient en effet que la production des énoncés véritatifs, ainsi que celle des protocoles et des pratiques permettant de les établir, évolue avec la transformation des supports mnémotechniques.

Bernard Stiegler conçoit ces supports comme des rétentions tertiaires, cest-à-dire comme des artefacts matériels permettant de conserver les traces dexpériences temporelles, qui se spatialisent en sextériorisant. Cest ce processus de discrétisation et de détemporalisation des flux quil nomme grammatisation, et dont les technologies numériques constituent un stade6. Les modes de rationalité, de pensées et de production de vérité évoluent donc avec les transformations des rétentions tertiaires, qui rendent possible certains types de raisonnement, et qui permettent surtout de transmettre, de partager et de pratiquer les savoirs (par exemple, cest parce que lécriture alphabétique permet de tracer, de conserver étape par étape les démonstrations, et de les soumettre à la discussion publique que le raisonnement géométrique 191devient possible). Cest pourquoi Bernard Stiegler soutient la possibilité, et surtout la nécessité, de faire émerger un nouveau régime de vérité à partir des rétentions tertiaires numériques, en leur rendant leur fonction de supports de savoirs.

LE CONTEXTE DE LAUTOMATISATION GÉNÉRALISÉE
ET DE LA FIN DE LEMPLOI

De la gouvernementalité algorithmique
à léconomie contributive ?

Selon lui, le fonctionnement des technologies numériques (au service de la gouvernementalité algorithmique et de la data economy) non seulement peut changer, mais doit absolument être transformé : il soutient en effet que le système technique fonctionne aujourdhui de manière entropique. Autrement dit, il tend à sa propre auto-destruction, en épuisant les ressources (matérielles mais aussi psychiques et sociales) sur lesquelles il repose – en exploitant par exemple les énergies psychiques des individus par lactivation de leurs pulsions à consommer, en détruisant la diversité des langues à travers le « capitalisme linguistique7 », en court-circuitant les organisations sociales à travers le développement du capitalisme de plates-formes, etc. De même, lautomatisation généralisée et le remplacement progressif des employés par des robots constituent des facteurs dentropie au niveau économique : la productivité augmente mais les salaires baissent et les emplois disparaissent, et le modèle devient insolvable.

Selon Bernard Stiegler, il est donc urgent dadopter ces évolutions technologiques en changeant de modèle économique : il soutient notamment que le temps rendu disponible par lautomatisation pourrait être redistribué équitablement, et mis au service de la production 192dintelligence collective, de communs et de savoirs, grâce à une nouvelle utilisation des technologies numériques et la mise en place dun revenu contributif. Ainsi transformées et utilisées, les technologies numériques pourraient devenir des facteurs de néguentropie, cest-à-dire dévolution, de diversification et dinvention psycho-sociale, permettant de lutter contre les idéologies transhumanistes qui semparent actuellement du pouvoir de leurre inhérent à lapparition dune nouvelle technique.

INDIVIDUER LES CONCEPTS PHILOSOPHIQUES HÉRITÉS
POUR PENSER LES ENJEUX CONTEMPORAINS

Bernard Stiegler soutient ainsi la nécessité de repenser la question de lidéologie dans son rapport à la technique, telle que la développe Marx et Engels dans Lidéologie allemande, et de discuter la critique de la notion didéologie par les penseurs post-structuralistes. De manière plus générale, il insiste sur la nécessité de questionner lhéritage philosophique des années 60, qui, loin dêtre devenu caduque, doit cependant être transformé. Il sagit de reprendre les problématiques ouvertes par Foucault, Deleuze ou Guattari (comme les questions de la multitude ou de limmanence), mais en les individuant, afin de les rendre opérantes dans le contexte actuel.

Antoinette Rouvroy a elle aussi insisté sur la nécessité de discuter les penseurs de la critique et de lémancipation à la lumière des problèmes contemporains : de nombreux concepts (comme ceux de rhizome ou dimmanence) avaient été développés dans une perspective stratégique, pour critiquer des structures hiérarchiques et oppressives, qui ont peu à peu disparu avec lavènement de la gouvernance, et la dilution et lhorizontalisation de lautorité qui lont accompagnée. Si les questions ouvertes et les raisonnements élaborés par les auteurs des années 60 demeurent essentiels aujourdhui, une lecture prétendument exacte, impartiale et objective de leurs théories ne semble pas suffire pour penser les nouveaux modèles de gouvernement et les nouvelles formes didéologies. Il sagit donc déviter la répétition 193automatique des auteurs et de lutter contre la paresse de la pensée, en réinterprétant les textes, et en faisant bifurquer les concepts vers de nouveaux enjeux.

Anne Alombert

Agrégée de philosophie
et doctorante –
Université Paris Ouest Nanterre

1 Le séminaire Digital Studies, organisé sous la direction de Bernard Stiegler, a pour fonction dinterroger le statut de la technique dans le devenir des savoirs. Les digital studies désignent un champ de recherches transdisciplinaires, qui pose en principe que tout savoir suppose une artefactualité technique, à la fois pour pouvoir se transmettre et pour pouvoir se transformer. Le champ des digital studies ne se limite donc pas à létude des technologies numériques, mais concerne létude des techniques et technologies intellectuelles en général, sous langle de leurs effets sur les savoirs en général (savoir faire, savoir vivre, savoir théorique). Dans ce cadre, il a aussi pour fonction dinterroger les bouleversements épistémiques et épistémologiques (au sein des différentes disciplines académiques) produit par la numérisation des instruments scientifiques et du milieu mnémotechnique, dans le but douvrir un débat sur le statut de ces technologies dans les sociétés présentes et à venir, et de faire émerger un collectif international déchanges autour de ces questions. Ce séminaire, co-organisé par Ariane Mayer, Paul-Émile Geoffroy et Anne Alombert en 2014 et 2015, dans le cadre de lInstitut de Recherche et dInnovation du Centre Georges Pompidou, sest poursuivi en novembre 2016 à la Maison des sciences de lhomme Paris Nord, dans le cadre de la Chaire de Recherche Contributive de Plaine Commune. Les vidéos des différentes séances sont visibles aux adresses suivantes : URL : https://digital-studies.org/wp/seminaire-digital-studies/, https://digital-studies.org/wp/seminaire-digital-studies-2015-2016/, et https://enmi-conf.org/wp/enmi16/

2 Le concept de gouvernementalité agorithmique est développé par A. Rouvroy et T. Berns, dans un article intitulé « Gouvernementalité algorithmique et perspective démancipation. Le disparate comme condition dindividuation par la relation ? », in Réseaux, no 177, 2013/1, p. 163-196.

3 Voir Bernard Stiegler, La société automatique, t. 1 Lavenir du travail, Paris, Fayard, 2015 (notamment chapitres 2 et 3).

4 Les Entretiens du Nouveau Monde Industriel 2014 sur «La vérité du numérique» sont consultables à ladresse suivante : URL : https://enmi-conf.org/wp/enmi14/

5 Voir C. Anderson, « The end of theory : the data deluge makes the scientific method obsolet », URL : https://www.wired.com/category/business/

6 La rétention tertiaire littérale que constitue lécriture alphabétique permet de spatialiser le flux des paroles sous forme de lettres, la rétention mécanique que constitue une machine permet dobjectiver et de discrétiser le flux des gestes, les rétentions analogiques permettent dextérioriser les flux perceptifs – de telles rétentions supposent à chaque fois la discrétisation du flux dès lors détemporalisé. Pour un approfondissement des notions de rétention tertiaire et de grammatisation, voir : URL : http://arsindustrialis.org/attention et http://arsindustrialis.org/grammatisation.

7 Le « capitalisme linguistique » est une notion développée par Frédéric Kaplan pour décrire lexploitation marchande et la destruction progressive des pratiques linguistiques par les automates de Google. Pour plus de détails, voir larticle de F. Kaplan et la séance du séminaire Digital Studies consacrés à cette question : URL : https://www.monde-diplomatique.fr/2011/11/KAPLAN/46925 et https://digital-studies.org/wp/frederic-kaplan-et-warren-sack-02122014/.