Aller au contenu

Classiques Garnier

Introduction Le gouvernement des données

  • Type de publication : Article de revue
  • Revue : Études digitales
    2016 – 2, n° 2
    . Le gouvernement des données
  • Auteurs : Cormerais (Franck), Gilbert (Jacques Athanase)
  • Pages : 11 à 19
  • Revue : Études digitales
  • Thème CLIL : 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
  • EAN : 9782406070641
  • ISBN : 978-2-406-07064-1
  • ISSN : 2497-1650
  • DOI : 10.15122/isbn.978-2-406-07064-1.p.0011
  • Éditeur : Classiques Garnier
  • Mise en ligne : 12/08/2017
  • Périodicité : Semestrielle
  • Langue : Français
11

INTRODUCTION

Le gouvernement des données

Le numéro 2 de la revue Études Digitales ouvre un champ de réflexion où, à partir de la montée contemporaine de lhyperconnectivité des réseaux, les algorithmes concentrent le lien entre données et pouvoir. La compréhension de ce phénomène sera envisagée en deux mouvements distincts mais absolument complémentaires.

Le premier mouvement, via linformatique, rend compte dune mutation majeure dans les formes du savoir. Dans cette orientation, le « devenir donnée » de toute connaissance inscrit une nouvelle étape de lhistoire des écritures qui se traduit par le passage du monde des signes aux mondes des data.

Le second mouvement, via le politique et par conséquent par les données du pouvoir, produit une transformation des formes de la gouvernementalité qui sinscrit dans le sillage indirect de la cybernétique (du grec « pilote », « gouverneur ») dont lambition était de construire des machines intelligentes. Rappelons que le verbe « gouverner » – le « pilote de lâme » ; ψυχῆς κυβερνήτης1 – au sens de piloter un navire ou un char, fut déjà utilisé par Platon de façon métaphorique pour désigner le fait de diriger les hommes. Norbert Wiener, créateur du mot cybernétique lutilisera dans un sens un peu différent.

Cest au croisement dune double approche des données via linformatique puis via lutilisation des données par le politique, que nous entendons pointer la reconfiguration actuelle de la relation « savoir-pouvoir », selon une perspective post-foucaldienne, qui constitue le thème central de ce numéro. En effet, lordre classique qui menait, à partir de la raison et par lintermédiaire de la connaissance, vers la maîtrise totale de la nature et des hommes, ne paraît plus aussi solidement établi. Ainsi, se met en place un pouvoir dont linsu progresse parallèlement 12à laugmentation des flux informationnels et laccroissement de leur complexité. Se met alors en place, de manière progressive, une nouvelle condition, incertaine, de lhomme et de son savoir.

Sans proposer un savoir cohérent sur le monde contemporain en pleine transition, lavènement de la « rationalité » algorithmique, qui sincarne dans la computation numérique2, constitue un mode inédit de gouvernementalité, fondé sur la dogmatique dune efficience managériale dont la légitimation sappuie sur la plus-value du code. La science du calcul prend de vitesse la pensée humaine et impose un nouveau « réalisme numérique », expression dune « fonction dogmatique » (au sens de Pierre Legendre) qui prétend paradoxalement supprimer tous les dogmes dans laffirmation dune effectivité « sans théorie » produite par de simples corrélations instantanées, arrachées par extraction à la masse des données. Où trouver désormais la possibilité du jugement critique, la mise à lépreuve de la vérité dans largumentation et la discussion ?

LE POUVOIR DES DONNÉES COMME « POUVOIR DE »

Une première façon daborder les données se comprend comme une interrogation sur le pouvoir au sens du « pouvoir de ». Ce type de pouvoir exprime essentiellement une « capacité à faire ». Il renvoie à lextension de laction et de lexpérimentation par lextraction et le traitement des données dans tous les champs du savoir. Cest ainsi que sorganise, au cœur de la technoscience contemporaine, une mutation informationnelle qui prend un tournant radical. Ainsi, Chris Anderson évoque-t-il une « fin de la théorie3 » au moment où les corrélations massives de toutes les données rendent, selon lui, toute recherche de causalité inutile car : « Avec suffisamment de données, les chiffres parlent deux-mêmes4. » Une réflexion sur la proposition dune « science sans les sciences », cest-à-dire 13dun calcul au service dune raison statistique, reste encore à étayer par le renforcement dune critique de la raison computationnelle fondée sur une analyse mathématique appliquée aux énormes quantités de données recueillies par des capteurs qui collectent nos comportements. Comment répondre à la question posée par Anderson : « Pourquoi le déluge des data rendra la méthode scientifique obsolète5 ? ».

Les humanités digitales, et plus globalement les études digitales, à condition dêtre entendues dans un sens large qui excède la simple analyse des corpus par la fouille, peuvent jouer un rôle critique face aux risques de déshumanisation de telles conceptions qui caractérisent les nouvelles pratiques scientifiques. La vitesse du calcul, associée à lautomatisation6 donne accès à une quantité massive de données (Big Data) qui alimente un comportementalisme réducteur négateur de la contingence et des situations infiniment variables. Ceci a pour effet de court-circuiter la réflexivité qui se manifeste dans le travail interprétatif et le jugement. Les savoirs, aussi bien les sciences humaines que les sciences de la nature, sont désormais largement tournés vers la prévision statistique (Supiot, La gouvernance par les nombres7). Cette orientation critique et clinique paraît nécessaire si on veut éviter la réduction des SHS au statut de « sciences auxiliaires instrumentalisées8 ».

Face aux Big Data, le pouvoir des données doit-il être envisagé comme lapparition dune intelligence collective face au profilage généralisé ? Autrement dit, lenjeu du devenir des Humanités et des sciences sociales9 ne repose-t-il pas sur laptitude de celles-ci à mettre en œuvre un dépassement des frontières disciplinaires capable de prendre en charge la « réduction » de la digitalisation de tous les savoirs ? Il sagit alors dêtre en mesure de produire un savoir commun, qui peut se développer en commun, et aussi prendre en charge ces communs que constitue désormais la masse des données.

La reconnaissance du rôle des instruments et le questionnement de cette « nouvelle intelligence10 » impliquent la formation dune critique 14nouvelle. Cette situation engage une autre relation aux faits et par conséquent aux « terrains ». Ce nouveau partage de lempirique et du théorique renvoie à une expérience du sens qui ne possède pas encore son épistémologie, mais seulement une valeur heuristique.

Si la revue Études Digitales interroge la capacité des sciences humaines à intégrer dans la recherche de nouveaux outils dinterprétation des données11, la pertinence des instruments repose la question de la performance qui ne peut se concevoir sans une nouvelle épistémè.

Cette épistémè, autour les « données du savoir », doit organiser une problématisation du champ selon un questionnement multiple qui part de leffacement des frontières disciplinaires, confondues dans laplatissement des données, et prend en charge une redistribution des corpus sous leffet des corrélations, tout en sachant demeurer prudent, voire sceptique, face à ce nouveau régime de validation de la preuve. En effet, le déphasage avec un ancien régime de « vérité » par le comput creuse lécart entre le réel et sa représentation.

Désormais, le fondement de chaque discipline ne se pense pas hors dun milieu mnémotechnique – dont la forme est aujourdhui celle du digital, – à travers lequel sorganisent les controverses scientifiques. Ce milieu est également celui dun appareillage symbolique et signifiant. Si les caractéristiques du digital modifient la création et la transmission des connaissances et imposent une redéfinition des conditions de la véridiction, cest en tant quelles constituent les nouvelles conditionnalités des savoirs, et non simplement les outils de traitement des données par le calcul. Il convient de chercher dans une nouvelle démarche interprétative, une démarcation entre production du savoir et savoir automatisable afin de mettre laccent sur les conditions dune réfutabilité. Reste à établir une épistémogenèse de cette transformation des sciences interprétatives sans sappuyer sur une métaphysique mais sur un partage des connaissances, au-delà des sciences dures et des sciences humaines et sociales dans une transdisciplinarité à construire contre lidée dune post-vérité.

15

LES DONNÉES DU POUVOIR
VIA LE POLITIQUE COMME « POUVOIR SUR »

La seconde façon daborder dans ce numéro lexamen des données sentend au sens du pouvoir « sur ». Ce type de pouvoir trouve son originalité dans une conception renouvelée de la façon de gouverner par un nouveau processus de contrôle. Comme lexplique Antoinette Rouvroy, la normalisation se fait désormais préemptive et débouche sur une nouvelle approche de la gouvernementalité : « Pour Foucault, la normalisation visait la subjectivation des individus par un processus dintégration de la norme. Le but était de réformer le psychisme. Désormais, les individus nont plus dimportance. On ne sintéresse plus aux causes des comportements. On est dans lanomie. La norme sadapte à la sauvagerie des faits. Elle est devenue invisible tout en collant à la peau des individus car ce sont nos profils qui la font évoluer. On nest plus dans la prévention mais dans la préemption. Le pouvoir devient ainsi de plus en plus difficile à localiser, notamment en raison de limplication croissante des industriels privés. Toutes les stratégies de résistance se trouvent déstabilisées car il ny a plus de pouvoir identifié. Cette tendance nest toutefois pas nouvelle. Ce mouvement a commencé par lexpansion du concept de gouvernance. Avec les algorithmes, nous sommes passés dans une gouvernance hors-sol12 »

La société de contrôle sillustre par un pouvoir qui correspond à une déterritorialisation. Celui-ci qui ne relève pas seulement de prédiction mais de lintervention. Il coïncide avec la nouvelle phase de linformatique ubiquitaire (réseaux interconnectés et Big Data) qui succède à celle des interfaces.

Aussi peut-on parler, après le biopouvoir, dune nouvelle forme de surveillance qui réintroduit avec le digital un « psycho-pouvoir13 » ou encore une « algocratie » alimentés par un processus généralisé de « gamification » ?

16

Nassistons-nous pas en effet à une alliance tactique entre les limitations épistémiques des Big Data et les transformations politiques du néo-libéralisme, lui-même producteur dun illibéralisme contraire à toute possibilité de liberté ? La délégation de la décision à des algorithmes nimplique-t-elle pas une transformation de la nature même des processus décisionnels comme le montre Paul Jorion dans Le prix14 au sujet des échanges robotisés à haute fréquence qui échappent désormais à toute logique de marché humain ?

Sans répondre définitivement à ces interrogations, la revue Études digitales formule cette hypothèse que sengage aujourdhui un tournant « technologico-politique », où les formes émergentes de gouvernementalité interrogent les institutions. Dans ce contexte, les données du pouvoir reposent sur une traçabilité générale, conséquence dun passage du mémorable (ce dont lon se souvient) au mémorisable (la mise en conservation de chaque événement). Ainsi, la mutation des savoirs interroge-t-elle les données du Pouvoir à partir de la distinction entre ce que gouvernent les données et ce qui gouverne les données, par-delà laspect impersonnel des procédés mis en œuvre. Comment saisir limpératif douverture contemporain dans de nombreux domaines ? Quels sont les outils de la gouvernementalité ? Quels sont les risques dune gouvernance par le calcul ? Allons-nous au-devant dune logique de décision sans maîtrise humaine ?

Plus globalement, il faut tenter de comprendre comment se redéfinissent le politique et le droit dans cette transition qui nous mène de lopposition « norme/répression », bien connue des politistes, à lopposition « anomie/préemption ». Cest bien lensemble des disciplines concernées par le traitement massif des données qui est sollicité pour apporter une réponse à une mutation « du pouvoir sur », via le politique, par « le pouvoir de », via les data.

À cette question majeure, des éléments de réponse sont proposés dans un film qui fait déjà controverse, adaptation dun roman écrit par un spécialiste des médias sociaux, Le Cercle, qui sort au début de lannée 2017. Ce film propose une fiction où le tout connecté se réalise par association des grandes firmes (GAFA) dans un monopole produit un « totalitarisme inversé ». Cette expression forgée par le philosophe Sheldon Wolon qui donne la mesure dun renversement des approches 17de la philosophie politique qui annonce peut-être les enjeux importants de la politique et de la pensée dans le 21e siècle. Le Cercle fait lobjet dun article dans ce numéro.

Les articles du dossier « le gouvernement des données » sarticulent autour des différentes approches et questions que nous venons dévoquer. Le pouvoir des données doit dabord être examiné dans sa constitution. Dominique Cotte en sinterrogeant sur la production des données de la recherche en sciences humaines pose la question du processus préalable à lutilisation des données. Il existe en effet une certaine propension à naturaliser les données alors que la condition de leur donation pose problème : elles savèrent en effet plutôt être des « reçues » que des données immédiates. Il convient alors de comprendre le processus de leur élaboration afin déviter cette naturalisation abusive qui finirait par assigner toute réalité au processus de triage et dencodage qui le génère. Baptiste Rappin procède à une généalogie de la gouvernementalité des données à travers un examen des relations entre organisation et information. Il inscrit son étude des fondements de la cybernétique dans le prolongement des débats médiévaux autour de la question de lunivocité. Les développements modernes de la cybernétique pourraient ainsi être considérés comme la sécularisation dun mouvement amorcé dès la pensée scolastique. Armen Khatchatourov resitue la mutation épistémologique des Big Data dans la suite des révolutions précédentes, empirique, théorétique et computationnelle. Toutefois il refuse daccepter sans examen lidée dun « quatrième paradigme » et propose un modèle danalyse qui permet de saisir la tension entre le diagramme et larchive.

Le pouvoir des données est ensuite considéré selon les domaines de son extension. André Vitalis sinterroge sur le profilage des populations. Après une approche archéologique de cette science des masses, il explique les modalités et les implications politiques et sociales dune telle entreprise. Il sinterroge sur lémergence dun nouveau « féodalisme » des données et les moyens de reconquérir une nouvelle liberté informationnelle. David Pucheux examine les conditions dune nouvelle physique sociale à travers les développements de linformatique ubiquitaire dans le projet dun décodage général de lhumain et envisage lélaboration dune nouvelle conception de réalité qui tend à modéliser lensemble des relations sociales. Alan Ouakrat interroge linfluence des métriques daudience de la presse en ligne sur le contenu éditorial. Il met à jour lacculturation du travail 18journalistique face à cette nouvelle culture de la mesure. Le risque est en effet de considérer cette nouvelle objectivation de la « réalité » comme un objectif sans prendre en compte la dimension collective et politique dune production de sens nécessaire au débat public. Mauro Turrini et Mattia Gallo approchent la question de la transparence de la vie et du corps à travers plusieurs romans contemporains qui, chacun à leur manière, posent la question de notre rapport personnel aux données. Ils envisagent, à travers ces œuvres de fictions, les nouvelles modalités de lexposition de soi. Mathieu Corteel examine lutilisation des Big Data dans lespace médical et tente de définir larticulation savoir/biopouvoir au sein de la médecine computationnelle. Il étudie les conditions et les conséquences de lémergence de cette nouvelle épistémê computationnelle en médecine. Et tente den discerner les enjeux biopolitiques. Annie Blandin étudie lutilisation des données personnelles à travers le rapport de pouvoir qui sétablit entre employeur et travailleur. Elle examine les conditions et les implications du travailleur à communiquer ses données pour assurer les meilleures conditions de sa sécurité avec tous les risques dintrusion que cette situation peut présenter. Vincent Guérin pose la question de lanticipation du crime à travers les méthodes actuarielles de Big Data. Il montre de quelle façon cette approche fait progressivement glisser la pénologie dun modèle « correctif » de la délinquance à une gestion normative des risques encourus. Antoinette Rouvroy sest fait connaître par ses travaux qui exposent la dimension prescriptive et non prédictive des algorithmes. Ceux-ci ne se contentent pas de capter des données pour établir des corrélations, ils façonnent le monde et modifient profondément le rapport quon peut entretenir avec le caractère fondamentalement incertain et tragique de la vie. Elle dénonce, à travers lidéologie des Big Data, lavènement dune société « post-actuarielle » qui prive les hommes dun regard sur le monde. Sa contribution est précédée de la retranscription par Anne Alombert dun dialogue quelle a mené avec Bernard Stiegler lors dun séminaire de Digital studies.

Le choix de Paul Jorion pour le Grand entretien dÉtudes digitales tient à loriginalité de son parcours et plus particulièrement à larticulation dune démarche anthropologique consacrée aux systèmes déchange et de prix avec une réflexion sur les modèles philosophiques et culturels des modèles de vérité et de réalité. Ce parcours la mené dune étude 19mythologique des sociétés primitives à une relecture attentive dAristote, de lémergence des systèmes logiques à celle de lintelligence artificielle sans jamais perdre de vue le point de départ anthropologique dont le but est toujours dinterroger la place de lhomme dans les environnements quil façonne et transforme, au risque de les détruire et même de se détruire. Notre équipe des recensions, dirigée par Daphné Vignon et Armen Khatchatourov poursuit dans la rubrique « Index » son travail de repérage des publications autour des problématiques digitales, proposant des comptes rendus et des études critiques plus développées.

Franck Cormerais
et Jacques Athanase Gilbert

1 Platon, Phèdre, 247 c7.

2 Le pléonasme est ici un soulignement qui met en évidence le caractère irréductible du digital à la seule dimension du calcul. Cette distinction permet détablir un usage différencié des deux termes. Voir Controverses et nomenclature dans le numéro prochain.

3 Chris Anderson, The End of Theory : The Data Deluge Makes the Scientific Method Obsolete, in Wired, 2008, URL : https://www.wired.com/2008/06/pb-theory/

4 Idem.

5 « Will the Data Deluge Makes the Scientific Method Obsolete ? »

6 Bernard Stiegler, Dans la disruption, comment ne pas devenir fou ?, Les liens qui libèrent, Paris, 2016.

7 Alain Supiot, La gouvernance par les nombres, Fayard, Paris 2015.

8 Jacques Ellul, Le bluff technologique, Hachette, Paris, 1988.

9 Dominique Boullier, Sociologie du numérique, Armand Colin, Paris, 2016.

10 Dominique Cardon, À quoi rêvent les algorithmes, Le Seuil, Paris, 2015.

11 Ramsay, Reading machines, University of Illinois Press, 2011 et Moretti, Distant reading, Verso, 2013.

12 Antoinette Rouvroy, entretien Médiapart, 2015.

13 Bernard Stiegler, Économie de lhypermatériel et du psychopouvoir, Mille et une nuits, Paris, 2008.

14 Paul Jorion, Le Prix, réédition Flammarion, « Champs Essais », Paris, 2016.