La médecine computationelle entre savoir et biopouvoir
- Type de publication : Article de revue
- Revue : Études digitales
2016 – 2, n° 2. Le gouvernement des données - Auteur : Corteel (Mathieu)
- Pages : 139 à 156
- Revue : Études digitales
LA MÉDECINE COMPUTATIONNELLE
ENTRE SAVOIR ET BIOPOUVOIR
INTRODUCTION
Avec le tournant clinique du xixe siècle initié par Cabanis, Pinel, Laennec et Bichat, la médecine définit la positivité de son savoir par une approche nominaliste des maladies qui s’oppose à l’essentialisme des nosologies du xviiie siècle. L’ordre en tableau qui agençait les maladies dans le jardin des espèces disparaît à la faveur d’un regard attentif aux variations des manifestations morbides. Selon la phrase célèbre de Corvisart : « toute théorie se tait ou s’évanouit toujours au lit du malade1 ». Le malade alité dans l’organisation structurelle de l’hôpital va permettre de faire émerger un savoir par l’attention du médecin aux variations morbides. La maladie ne se dévoile dès lors qu’à partir de ce que l’on pourrait décrire comme une herméneutique. Le médecin devient exégète ; la maladie une œuvre occulte dont on ne peut épuiser le sens. La plasticité propre à chaque corps définit une sorte d’individuation de la maladie dans la tension morbide des chairs. Le savoir médical s’établit à partir de cela dans une lecture dynamique qui met au jour la logique de composition des diverses pathologies. Les diagnostics et pronostics restituent par l’anamnèse des symptômes et la fréquence des signes, l’ordre des effets de surface qui, à la lumière du visible, traduisent ce qui se cache dans la nuit du corps. L’invisible que l’on recherche dans le jeu incessant du dévoilement morbide anime tout le savoir clinique dont Foucault a défini les traits caractéristiques dans son ouvrage de 1963, Naissance de la clinique.
140Il me semble que l’organisation du savoir mise en évidence par Foucault dans cet ouvrage prend le pas sur le développement de la médecine contemporaine dont je propose ici l’étude. Comme le met en évidence Foucault, l’incertitude au fondement du savoir clinique va faire apparaître le calcul de probabilité dans l’ordre du discours médical.
La médecine (clinique) découvre que l’incertitude peut être traitée, analytiquement comme la somme d’un certain nombre de degrés de certitude isolables et susceptibles d’un calcul rigoureux (…) la probabilité est sans cesse invoquée, comme forme d’explication ou de justification, mais le degré de cohérence qu’elle atteint est faible. La raison n’est pas dans la théorie mathématique mais dans les conditions qui pouvaient la rendre applicable2.
Le champ hospitalier qui a pendant longtemps été en marge de la pratique médicale n’avait pas encore établi une cohésion suffisante au niveau du recensement pathologique pour appliquer correctement le calcul de probabilités au niveau de la population et de l’individu. En effet l’hôpital fut durant le Moyen-Âge et la Renaissance un lieu d’internement pour les vénériens, les prostitués, les pauvres et les fous. Il effaçait de l’ordre social les déviants sans aucune perspective thérapeutique. Si bien qu’à la fin du xviiie siècle quand il devient un lieu de soin, la collecte des données pathologiques n’était pas unifiée ni formalisée. Le développement hygiéniste de la politique qui se développe au cours de ce siècle va définir une organisation paradoxale de l’hôpital. Comme l’a montré Foucault dans la politique de santé au xviiie siècle, il y a une sorte de double dynamique qui s’initie : on tend à réhabiliter l’espace hospitalier comme centre thérapeutique, et, l’on ouvre l’hygiène en dehors de l’hôpital. Le développement de la médicalisation familiale par une acculturation de la population développe une ouverture du savoir médical dans les foyers. L’hygiène devient une préoccupation familiale. La famille se préoccupe davantage des enfants. Il y a comme le note Foucault une « obligation d’ordre physique (soins, contact, hygiène, propreté, proximité attentive) ; allaitement des enfants par les mères ; souci d’un habillement sain ; exercices physiques pour assurer le bon développement de l’organisme3 ». De même la purification des villes 141va développer une réflexion sur les maladies endémiques produites par l’enfermement. L’hôpital est ciblé et l’on tend à trouver des alternatives par le développement de l’hospitalisation à domicile et des dispensaires qui évitent l’enfermement. Toutefois comme le note Foucault : « la disparition de l’hôpital ne fut jamais qu’un point de fuite utopique4 ». Le pouvoir politique entend faire de l’hôpital une machine à guérir dans l’ordre de la technologie d’État. Et je crois que c’est précisément ce qui rend possible la collecte des données au niveau médical d’un point de vue historique.
L’hôpital doit donc fonctionner comme une machine à guérir (…) d’une façon positive, il faut l’organiser en fonction d’une stratégie thérapeutique concertée : présence ininterrompue et privilège hiérarchique des médecins ; système d’observation, de notations, d’enregistrement qui permette de fixer la connaissance des différents cas, de suivre leur évolution particulière, et de globaliser ainsi des données portant sur une population et une période longue (…) l’hôpital tend à devenir un élément essentiel dans la technologie médicale5.
Avec le développement du concept de « probabilité » l’hôpital va progressivement améliorer l’enregistrement des données médicales en vue de favoriser la connaissance des pathologies et d’améliorer les soins. Un lien premier s’établit dès lors entre la combinatoire des données et la structure de l’hôpital. Il y a comme une interdépendance. Selon la formule de Foucault : « une maîtrise conceptuelle de la probabilité en médecine impliquait la validation d’un domaine hospitalier, qui, à son tour, ne pouvait être reconnu comme espace d’expérience que par une pensée probabilitaire6 ».
À mon sens ceci initie le programme de recherche médical qui va faire naître ce que je nomme une épistémê computationnelle dans l’ordre du discours médical. Et c’est avant tout la structure hospitalière qui va permettre ce développement. Le calcul de probabilités est ainsi défini par une organisation structurelle de la technologie étatique en matière de santé. En effet, cette récolte des données définit par la société royale de médecine fait émerger le calcul de probabilités au niveau du savoir médical dans l’élaboration de ce programme au cours du xixe siècle. L’épistémologie médicale ordonne le calcul de probabilité dans un agencement entre savoir 142et pouvoir au xixe siècle à la suite de la réorganisation des hôpitaux. Et c’est seulement à partir de ce tournant initiant la biopolitique que se met en place une médecine prédictive ; dans le sens où cette dernière tend à développer des calculs de probabilités afin d’organiser l’espèce et l’individu par une « gestion calculatrice de la vie7 ». S’organise dès lors le biopouvoir entre discipline du corps individuel et régulation de l’espèce. Selon les termes de Foucault : « dans les mécanismes mis en place par la biopolitique, il va s’agir d’abord, bien sûr, de prévisions, d’estimations statistiques, de mesure globales8 ».
Au xxe siècle alors que la médecine prédictive connaît un essor fulgurant avec le développement de la génétique, apparaît un tournant dans l’organisation des sociétés qu’il s’agit ici de questionner. Gilles Deleuze dans un texte de 1990, intitulé post-scriptum sur les sociétés de contrôle propose un dépassement du modèle disciplinaire. La structure de l’enfermement qui caractérisait la société disciplinaire s’effacerait avec l’émergence des théories de l’information et leur agencement au sein de la technologie d’État. Ce qu’il nomme « les sociétés de contrôle » définit selon lui l’ordre qui succède aux structures de l’enfermement (hôpital, prison, caserne, atelier, école) dans l’organisation du pouvoir Étatique. Au niveau médical ceci aurait pour effet d’effacer la structure hospitalière et son mécanisme d’enfermement, ce qui conduit, selon Deleuze, à une déconstruction de l’individu dans la connaissance des pathologies en formant un savoir portant sur ce qu’il nomme « une matière dividuelle ». L’on pourrait définir cette « matière dividuelle » dans la perspective du Big Data comme l’ensemble des données générées par les traces numériques d’une population, et, traitées par un algorithme au sein d’une organisation sémantique (modèle des métadonnées).
Dans le régime des hôpitaux : la nouvelle médecine « sans médecin ni malade » qui dégage des malades potentiels et des sujets à risque, qui ne témoigne nullement d’un progrès vers l’individuation, comme on le dit, mais substitue au corps individuel ou numérique le chiffre d’une matière « dividuelle » à contrôler9.
143Pour Deleuze, il y aurait un dépassement de l’organisation de l’hôpital par le contrôle sur le potentiel pathogène. Cela signifierait que l’aspect disciplinaire de la biopolitique aurait disparu au xxe siècle pour laisser place à une administration générale de l’espace dans l’anonymat des données. C’est dans une perspective de rupture vis-à-vis de l’ordre du savoir-pouvoir disciplinaire que la société de contrôle apparaîtrait. À mon sens au niveau médical, on peut trouver des éléments qui problématisent cette approche. La médecine dans le dispositif biopolitique constitue précisément « un savoir qui porte à la fois sur le corps et sur la population, sur l’organisme et sur les processus biologiques, et qui donc va avoir des effets disciplinaires et des effets régularisateurs10 ». Comment donc s’agence ce nouvel ordre sociétal ?
Les discours critiques sur le savoir-pouvoir du Big Data tels que les théories de la « gouvernementalité algorithmique » de Berns et Rouvroy se rattachent à mon sens à cette conception deleuzienne de la société de contrôle. Dans cette perspective la spatialisation de la maladie dépasse l’hétérotopie de l’hôpital. Comment donc expliciter la continuité et la discontinuité dans l’ordre du savoir et du pouvoir ? La spatialité de la maladie dans la société change-t-elle réellement ? C’est précisément ce que je tenterai d’interroger en mettant en évidence dans un premier temps le développement de l’épistémê computationnelle dans le savoir médical à partir de l’épistémologie foucaldienne de la clinique. Ceci nous permettra de comprendre comment l’émergence de la probabilité établit un processus historique de différenciation entre la cognition humaine et la computation machinique qui va faire naître le Big Data en médecine. Enfin dans un second temps, j’interrogerai le dispositif de pouvoir qui entoure le Big Data dans le rapport à la biopolitique et à la société de contrôle.
144ÉMERGENCE DE L’ÉPISTÉMÉ
COMPUTATIONNELLE EN MÉDECINE
Le Big Data n’épuise pas la maladie. Il me semble qu’elle reste pour ce système comme pour la médecine clinique un « concept limitatif » – qui limite les prétentions à une connaissance universelle. L’on reste dans ce que l’on pourrait appeler un savoir nominal de la maladie. Le savoir est d’ailleurs fondé sur les variations des maladies. Les ontologies sémantiques du Big Data doivent être flexibles pour bien comprendre les manifestations morbides. La subsomption dans des ordres sémantiques et sémiotiques se fait par des multiplicités parcourues de faits individuels ; c’est précisément ce qui constitue le nominalisme clinique. Comme l’a mis en évidence Foucault, depuis le xixe siècle la sémantique qui spatialise et la sémiotique qui temporalise les maladies dans la positivité du discours médical, ne s’ordonne pas à des « universaux » mais à un système nominal. Le praticien produit par l’inférence empirique des symptômes un jugement synthétique a posteriori que l’on nomme « diagnostic » – il spatialise la maladie dans le discours. Puis par le concours temporel de sa conscience, il produit une perception des fréquences autour des signes de la maladie. Il tend ainsi à restituer la logique de composition de la maladie par la formulation d’un jugement synthétique a priori qui ordonne l’ensemble des signes dans la formulation du pronostic. Dès la naissance de la clinique le calcul de probabilités fait partie intégrante de cette perception des fréquences qui ordonne le pronostic. Comme l’écrit Foucault « la clinique ouvre un champ rendu visible par l’introduction dans le domaine pathologique de structures grammaticales et probabilitaires11 ». Foucault en disant cela met en évidence un aspect qui me semble fondamental dans le savoir clinique, il s’agit de ce qu’il nomme « le transfert des formes de l’intelligibilité » :
Le modèle grammatical, acclimaté dans l’analyse des signes, reste implicite et enveloppé sans formalisation au fond du mouvement conceptuel : il s’agit du transfert des formes de l’intelligibilité. Le modèle mathématique est toujours implicite et invoqué ; il est présent comme principe de cohérence d’un processus conceptuel qui s’est accompli hors de lui : il s’agit de l’apport du thème de formalisation12.
145Dans le regard clinique il y a toujours et déjà une formalisation mathématique présupposée dans l’ordre discursif qui va au cours de l’histoire définir un transfert des formes de l’intelligibilité humaine à celle de la machine. La latence de la formalisation mathématique est un aspect de la médecine clinique qui va permettre le développement technologique qui conduit à la médecine prédictive. Les signes cliniques définis par la fréquence sont toujours et déjà formalisés par le schème du nombre. C’est précisément ce qui constitue les données médicales. Les données en médecine ce sont des signes formalisés sous le schème du nombre. Cette épistémê va par la suite définir une distance narrative entre l’ordre grammatical et l’ordre probabilitaire. Les mots et les données vont se séparer à mesure que la technologie d’observation va se numériser. Les développements des théories de l’information qui conduisent à la génétique ainsi que les découvertes de l’imagerie médicale vont permettre d’autonomiser la sphère du couple signe-donnée sous les traits de la computation. La capacité de calcul de la machine va s’écarter de la cognition du médecin. Toutefois dans un premier temps, l’on voit apparaître des systèmes experts qui entendent imiter la cognition du médecin. Le transfert entre la cognition et la computation apparaît historiquement dans une confusion première qui prolonge l’implicite mathématique de l’analyse des signes.
La logique des raisonnements médicaux a fait l’objet de nombreuses et passionnantes études au cours des années 1970, lorsqu’on en espérait une possible informatisation du diagnostic ou, du moins, une aide de l’ordinateur à la décision. Le rêve de remplacer le médecin par un système expert s’étant estompé, l’assistance informatique au jugement médical s’est ensuite déplacée vers l’imagerie et le vers le stockage d’informations13.
Il y a eu d’abord dans le processus du transfert d’intelligibilité, une confusion entre la cognition humaine et la computation puis progressivement l’on sépara ces deux continents dans l’ordre de l’épistémê computationnelle. Avec le stockage d’information et les développements numériques de l’imagerie médicale à l’origine du Big Data en médecine, la formulation du jugement synthétique a priori du médecin s’allie sans se confondre à la capacité itérative de la machine. L’ensemble des examens paracliniques ou complémentaires se fait par le schème du nombre 146que traite la machine. Les données sont produites par une synthèse sémiotique pure qui détache le signe de la conscience temporelle du médecin pour entrer dans une temporalité machinique. Différence dans l’ordre du savoir entre la machine et l’humain. La machine calcul à une vitesse et un nombre de variables qui excèdent infiniment les capacités cognitives de l’humain. Ce qui permit un accroissement des capacités prédictives. Seulement, le médecin reste l’instance légiférante dans le processus. Il initie les examens et discute les résultats. La machine n’est qu’un instrument efficient qui définit l’ordre computationnel du savoir sans se confondre avec la cognition du médecin.
Ceci nous conduit à la définition du Big Data selon les cinq V. 1o V = Volume : le traitement s’établit sur une quantité de données de l’ordre du pétaoctets 1015octets. 2o V = Vélocité : le traitement des données se fait en temps réel. 3o V = Variété : les données sont hétérogènes. 4o V = Véracité, la qualité des données est importante ; il faut donc évaluer ces dernières pour savoir si elles sont erronées ou incomplètes. 5o V = Valeur, il s’agit de l’utilité des données pour les services auxquels elles s’appliquent. Dans le domaine de la médecine clinique les points 4o et 5o sont cruciaux, car la validité des données et les ordres d’importance sont ce qui permet l’efficience du système. Ces deux critères sont établis par la cognition humaine qui doit s’assurer de la véracité et de la valeur des données. En cela la signifiance et la subjectivation humaine s’intègrent dans l’ordre du savoir entre cognition humaine et computation machinique. La métaphore computationnelle qui comprend la machine et le médecin sous fond du Même s’efface donc par un dédoublement du savoir entre computation et cognition.
Ainsi, une sphère propre est définie pour la machine. L’ordre temporel dans lequel elle établit ses calculs échappe à notre sémantique. Par exemple, lorsque je recherche le mot « homme » sur Google le moteur de recherche trouve 4866 pages de résultat en 0,30 seconde. Il s’agit bien d’un calcul qui échappe à la cognition humaine. Seulement, le modèle organisationnel du page rank de Google fut constitué par un certain Larry Page. La computation est machinique mais l’ordre est humain. La constitution de modèles reste arbitraire et définie par le choix de l’ingénieur. Se déresponsabiliser de nos actes et des agencements du pouvoir en promulguant une autonomie totale de la machine relève de l’hypocrisie. La machine permet l’efficience d’un ordre prédéfini par l’humain.
147Dans le cadre de la médecine le Big Data s’organise dans plusieurs domaines du savoir. Le traitement des données s’établit 1o en bioinformatique au niveau histologique et génétique ; 2o en neuroinformatique au niveau de l’imagerie cérébrale ; 3o en informatique clinique au niveau des données du patient et 4o en informatique de santé publique (Public health informatic) au niveau des données de la population. Chaque domaine définit une organisation des modèles dans la compréhension du pathologique. L’organisation la plus arbitraire me semble être celle développée en informatique de santé publique sur l’étude des épidémies.
Ceci apparaît historiquement avec la cartographie dynamique des épidémies proposée par Jeremy Ginsberg14 (ingénieur chez Google). Le système de Ginsberg fonctionne par la combinatoire de données hétérogènes référencées selon les mots-clés se rapportant aux symptômes du virus. Comme les personnes infectées recherches généralement sur Google leurs symptômes afin de comprendre leurs maux, l’algorithme use de leur activité pour prospecter l’évolution dudit virus. Cela change de fait le modèle de la surveillance sociale des épidémies. La perspective panoptique dès lors est couplée à une perspective synoptique. Le « flutrends » de Google qui en naquit fut l’occasion d’un véritable tournant biopolitique. Je pense que la conception de « matière dividuelle » développée par Deleuze et reprise par Rouvroy et Berns se manifeste pleinement dans ce modèle de data mining (exploration des données). Les traces numériques a-signifiantes sont par la suite organisées pour définir une prédiction sur des aspects sociétaux. L’organisation de l’espèce s’établit dans la virtualité propre à la temporalité et la spatialité de la computation. Comme l’écrivent Rouvroy et Berns :
La mesure de toute chose est « dividuelle », à la fois infra et supra personnelle, rhizomatique, constituée d’une multitude de représentations numérisées, potentiellement contradictoires entre elles et en tout cas hétérogènes les unes aux autres. C’est cet « être » numérique constamment décomposé, recomposé, composite, qui intéresse à présent directement le pouvoir15.
148LA BIOPOLITIQUE À L’èRE DU BIG DATA
Le Big Data définit une double dynamique biopolitique. On le retrouve dans ce dispositif de pouvoir sur la vie à un niveau individuel ainsi qu’à un niveau collectif. Au niveau de l’individu, le suivi en temps réel des données biométriques du patient définit une discipline du corps médiatisé. L’on surveille le corps de l’individu en temps réel par un dispositif technologique. Le rapport clinique qui consistait dans la palpation, l’écoute, et le regard direct est élargi par des techniques d’observation et de surveillance panoptique dans le sens ou une minorité surveille une majorité.
On peut établir cette médiation du regard médical dans la filiation historique du stéthoscope de Laennec et des techniques d’observation des variations morbides développées au xixe siècle. Par l’écoute médiatisée du cœur Laennec faisait advenir le signe en l’absence de tout symptôme. L’hypertension artérielle parfois asymptomatique chez le patient pouvait dès lors être perçue. La médiation par l’utilisation de données en temps réel prolonge ce geste épistémologique par une surveillance étendue du patient. Seulement, à la différence du stéthoscope, avec le Big Data le signe prélevé est tout de suite converti dans la computation machinique en donnée. La temporalité qui était celle de la cognition du médecin disparaît de cette médiation pour rentrer dans une temporalité du temps réel ou, plus précisément, de la computation machinique. La relégation du corps dont on entend aujourd’hui parler concernant l’imagerie médicale ou le calcul des données en temps réel me semble provenir de la disjonction entre la computation et la cognition. La temporalité et la spatialité de la machine diffèrent de celle permise par nos sens. Toutefois, l’ordre panoptique de la surveillance reste structurant pour ce dispositif ; il est médiatisé certes mais toujours présent dans son effacement.
Par exemple, pour ce qui relève des maladies non transmissibles, telles le diabète ou les maladies cardiovasculaires, elles font aujourd’hui l’objet de systèmes de suivi en temps réel permettant de réguler la consommation des patients et de prévenir tous risques d’aggravation de la maladie (EPR « Electronic Patient Record »). On discipline le corps 149en établissant un système de surveillance par médiation au moyen d’un support informationnel. Il y a une extension de la perspective panoptique dans le corps propre du patient. On retrouve ici le principe panoptique de l’effacement de l’instance surveillante dans le couplage de l’hôpital et du moniteur numérique.
L’hôpital à mon sens ne disparaît pas et le regard médical non plus ; ils se transforment. Ils s’étendent au-delà de la spatialité et de la temporalité humaine par la computation. La dimension computationnelle étend la discipline des corps en étendant la structure de l’hôpital dans l’espace privé du patient. Un jeu incessant s’établit dès lors non plus entre l’invisible et le visible mais en le virtuel et l’actuel. Les données virtuelles permettent dès lors l’actualisation des corps dans l’organisation du pouvoir sur l’individu. Si un diabétique ou un individu cardiaque a un comportement à risque, on le lui signalera, et, si les données manifestent la venue d’une crise, ce dernier sera reconduit à l’hôpital. Le dispositif de surveillance s’étend donc par la computation. À partir d’une dimension proprement machinique le regard médical se développe dans un nouvel espace/temps.
Cet espace/temps s’organise dans un agencement normatif qui ne s’établit plus à mon sens dans la linéarité du couple possible/réel de la logique humaine mais dans la multiplicité du couple virtuel/actuel de la machine. L’ordre du virtuel et de l’actuel est à mon sens ce qui va définir la norme de la discipline et de la régulation. Cette dimension computationnelle va produire ces normes à partir d’un principe de différenciation. Comme l’a mis en évidence Deleuze dans Diifférence et répétition le virtuel dans sa multiplicité va définir une individuation par un principe de différence en jeu dans le processus de l’actualisation.
L’actualisation du virtuel se fait toujours par différence, divergence, ou différenciation (…) jamais les termes actuels ne ressemblent à la virtualité qu’ils actualisent : les qualités et les espèces ne ressemblent pas aux rapports différentiels qu’elles incarnent ; les parties ne ressemblent pas aux singularités qu’elles incarnent. L’actualisation, la différenciation, en ce sens, est toujours une véritable création. Elle ne se fait pas par limitation d’une possibilité préexistante (…) S’actualiser pour un potentiel ou un virtuel, c’est toujours créer des lignes divergentes qui correspondent sans ressemblance à la multiplicité virtuelle16.
150Le problème pour la médecine prédictive devient ainsi le virtuel, le pré-pathologique, le potentiel à normer. La médecine prédictive par la computation qui porte sur une virtualité du corps va constituer la norme disciplinaire du biopouvoir qui porte sur l’individu au niveau infra-individuel des données. Ce qui par effet d’individuation définit à mon sens une discipline latente du corps. L’on retrouve ici le biopouvoir dans sa volonté de normer l’individualité par une actualisation de la « matière dividuelle ». On est là dans un mécanisme de contrôle qui nait d’une extension du dispositif hospitalier et qui peut-être le conduira à disparaître par l’extension du domaine de la normativité technologique. Mais ce n’est là qu’une première interprétation de la biopolitique qui reste insuffisante.
La société de normalisation n’est donc pas, dans ces conditions, une sorte de société disciplinaire généralisée dont les institutions disciplinaires auraient essaimé et finalement recouvert l’espace – ce n’est je crois, qu’une première interprétation, et insuffisante, de l’idée de société de normalisation. La société de normalisation, c’est une société ou se croisent, selon une articulation orthogonale, la norme de la discipline et la norme de la régulation17.
C’est dans ce croisement, je crois, que l’on peut comprendre l’organisation biopolitique du Big Data. Comme nous l’avons vu, au niveau individuel, une sorte de dispositif s’introduit dans le suivi en temps réel du patient. L’individuation produite par la computation dans le couple virtuel/actuel se base à un niveau infra-individuel – les données sont ce qui actualisera la santé de l’individu ou du moins la norme disciplinaire. Au niveau de l’espèce, la matière dividuelle est surpa-individuelle. On retrouve le dispositif sous la forme d’une utilisation d’une matière dividuelle, anonyme, asignifiante qui va permettre d’établir une régulation par la prédiction, seulement, les données ici sont produites par la population elle-même. C’est par nos usages du web que l’accumulation des données est permise. Au même titre que l’économie de l’attention – le Big Data en santé publique va coupler l’ordre synoptique à l’ordre panoptique. Thomas Mathiesen, dans son article The viewer society, a mis en évidence qu’au tournant des années 1990-2000, la surveillance n’est plus simplement organisée sous la forme du panoptisme. Avec l’apparition des mass media la surveillance se conjugue 151à la synoptique, par laquelle la majorité surveille la minorité18. Ce qui est trompeur c’est qu’au même moment où nous avons l’impression de surveiller la minorité dirigeante par le moyen de l’informatique toutes nos données sont accumulées dans des data centers et traitées pour établir des prospectives sur nos comportements sociaux, et au niveau sanitaire, réguler l’espèce.
Dans le cas de la prédiction des épidémies on remarque que les données collectées sur Google ou encore Twitter permettent de définir l’évolution en temps réel d’une épidémie voire d’une pandémie depuis sa source. Dans cette modélisation, les données sont organisées par un haut taux de volume, de variété et de vélocité, et un bas taux de véracité et de valeur. C’est là ce qui fait l’aspect le plus spéculatif du Big Data qui s’élabore dans une capacité à établir des corrélations hasardeuses dans la masse hétérogène des données. Selon la formule de Peter Norvig (ingénieur chez Google) : « des modèles simples et une grande quantité de données surpassent des modèles plus élaborés fondés sur une quantité moindre de données19 ». Une étude de 201220 qui développa un système de collecte et de traitement des données à partir de Twitter (Social network enabled flu trends) a mis en évidence que l’accumulation continue de données à partir des mots-clés permettait d’établir des prédictions plus juste sur l’apparition des grippes en les localisant précisément. Les données sont peut-être fausses ou erronées mais la masse permet d’extraire une prédiction efficiente. Dans ce modèle, il s’agit de définir des hot spot et d’agir directement dessus avant la propagation de l’épidémie ou de la pandémie. On retrouve ce principe de fonctionnement dans divers projets des organismes méta-étatiques tels que l’OMS, l’ONU et L’OCDE21. 152Il y a dans ces projets quelque chose de l’ordre de la gouvernementalité algorithmique de Berns et Rouvroy. Cette forme de gouvernementalité définit selon ces derniers un pouvoir latent, car l’on impose une coercition douce, non pas sur l’individu, mais sur la « matière dividuelle » que constituent les données infra-indivudelles et supra-individuelles.
La puissance d’un tel gouvernement réside donc dans son caractère essentiellement « inoffensif » : c’est aussi à ce titre qu’on doit comprendre que ses sujets sont gouvernés par les traces qu’ils laissent. Nulle naïveté ou paresse des sujets dans cette nouvelle forme de servitude volontaire (…) ce ne sont pas les sujets, les individus, qui se trouvent objectivés par les dispositifs d’observation et de prédiction, mais seulement – et c’est en cela que le gouvernement statistique est inoffensif – leurs miroitements distincts et fragmentés, digitalisés, infiniment corrélables et donc « pertinents » à un niveau collectif (…) Ainsi fragmentés, « dividuels », les sujets deviennent eux-mêmes la source ultime, agissante, performante, de la construction du savoir qui porte sur eux, et des normes qui les régissent22.
Sous couvert de la computation on va dès lors pouvoir imposer une coercition qui s’établira sur la preuve a priori des données. Il y a un véritable problème d’ordre juridique qui va se mettre en place dans le sens ou le jugement va se former sur le dividuelle et non plus l’individuelle. En médecine le projet TBI (translational bioinformatic) entend développer dans ce sens une perspective biopolitique. Il s’agit d’un projet de mise en commun de toutes les données biologiques, cliniques, neurologiques et populationnelles afin de répondre aux questions de santé23. Ceci aurait à mon sens un effet de propagation de la norme de régulation au niveau de l’espèce. C’est à ce moment-là que l’on pourrait penser la fin de l’organisation hospitalière dans une organisation gouvernementale. On peut se méfier à mon sens de tels projets tant le développement de la surveillance de la population semble prendre une place prépondérante dans l’ordre sécuritaire des États. Le pouvoir latent dont parle Berns et Rouvroy est pertinent dans le sens où il porte sur une matière dividuelle. Car il est légal d’utiliser des données anonymes (irréversibles) pour l’utilisation de tels algorithmes. Les données personnelles médicales 153doivent faire l’objet d’une anonymisation irréversible si on veut pouvoir les exploiter. Seulement, bien que les données soient anonymes et sans visages, l’ordre ou la modélisation va définir une norme de régulation. Car, la modélisation reste arbitraire dans le sens ou l’on choisit d’établir une norme pour faire corroborer le calcul.
Le logiciel PredPol qui permet l’anticipation des crimes en identifiant des hot spot selon les taux de criminalités et des données hétérogènes, constitue un bon exemple pour comprendre ce problème. Le logiciel connu pour avoir fait baisser le taux de criminalité dans plusieurs villes telles que Chicago, s’établit en vérité sur une pétition de principe. Comme l’a montré Ismaël Benslimane24 PredPol ne comptabilise que les crimes constatés et ne répertorie que certains types de crime et de lieu. L’efficience du système est pour ainsi dire construite car le modèle est bien évidement biaisé de manière arbitraire. La cartographie dynamique est construite. Il y a un choix fait par les ingénieurs dans leur modélisation qui va définir l’ordre coercitif et légitimer l’efficience du dispositif. L’on établit ainsi une norme englobante qui fait que tout le monde est potentiellement un criminel, et, l’on identifie une norme plus restreinte qui déjà présuppose une criminalité dans certains espaces/temps définis – soi-disant par la computation. C’est précisément ce que fait PredPol pour se déresponsabiliser et justifier la coercition et les contrôles dans certains lieux publics.
Au niveau médical on pourrait voir apparaître quelque chose de similaire dans la mise en place de zones de quarantaine. Par ailleurs, la vaccination de populations à risque – selon l’espace/temps définit par la computation – pourrait ouvrir la norme à des actes sanitaires auto-justifiés par le modèle qui leur confère un pouvoir d’action immédiate. Le Big Data au niveau de la population semble dessiner une organisation arbitraire de la norme régulatrice dans un système qui se justifie par lui-même et élève au statut de preuve ce qui n’est en réalité que de l’ordre du probable. Ainsi, l’on produit par une organisation gouvernementale de la probabilité une sorte d’hypostase de la prédiction algorithmique ; l’on fait d’un calcul qui a pour fondement l’incertitude une certitude inaliénable.
154CONCLUSION
Il semblerait que le Big Data en médecine apparaisse en filigrane du nominalisme de la médecine clinique, et, qu’il tend par une extension biopolitique à se défaire de l’agencement hospitalier. Les capacités prédictives permises par ce nouveau dispositif de pouvoir nourrissent le rêve archaïque d’une gestion toute politique de la santé. Selon la formule : « Si elle sait être politiquement efficace, la médecine ne sera plus médicalement indispensable25 ». La virtualisation du corps sous le schème du nombre permet une propagation latente de la norme disciplinaire et de la norme régulatrice. Tout se fait sans douleur par l’allégresse d’une volonté analgésique de la population. Servitude volontaire sans visage dans le flot d’une matière dividuelle contrôlée. L’épistémé computationnelle – naissant de l’incertitude nominale – traversa de manière implicite le savoir médical durant plus de deux siècles pour se métastaser en une certitude politique. Au cours de son évolution discursive, la prédiction devint de plus en plus certaine dans le discours. La capacité machinique à concevoir le corps comme une matière dividuelle permit de comprendre l’ordre de composition des maladies dans une dimension spatiale et temporelle dépassant la cognition humaine, et l’ordre hospitalier qui la fit naître. La structure de l’hôpital contenait en son principe, l’événement de sa fin prochaine.
Le transfert d’intelligibilité – qui s’établit dans la différence entre cognition et computation – inscrit l’ouverture de la médecine dans l’effacement de la sphère hospitalière. La capture de cette technologie par l’appareil d’État repousse les limites de la norme régulatrice dans l’organisation interne de la matière dividuelle. Comme l’écrivent Berns et Rouvroy : « la norme est immanente au corps statistique, un corps infiniment multiple de chiffres dont le métabolisme algorithmique produit et affine en permanence des corrélations à partir des bases de données en perpétuelle expansion26 ». La norme s’immisce dans 155la modélisation des données. L’ordre virtuel va – par un processus d’individuation – normer le corps. L’organisation sanitaire tend à s’établir dès lors dans la sphère virtuelle par une actualisation de la structure computationnelle du savoir. Le couple savoir-pouvoir s’allie au couple virtuel-actuel dans une perspective pré-thérapeutique. On délaisse le soin par la prévention ; imposition douce de la biopolitique dans l’implicite des données.
La computation qui tend à prédire ainsi les épidémies, s’est perfectionnée de manière exponentielle depuis les années 2010. Ce développement fulgurant semble parachever le développement de la biopolitique dans un système qui se légitime par pétition de principe. La modélisation organise la norme de l’individu et de la population dans la déresponsabilisation computationnelle. L’hypocrisie qui consiste à déplacer l’arbitrage politique vers la machine définit une approche gouvernementale qui se revendique comme neutre axiologiquement. La machine est pourtant parsemée de valeurs. Seulement, comme l’on travaille de plus en plus sur une matière dividuelle anonyme et sans visage, le pouvoir s’immisce par-delà le corps dans sa virtualité. Le pouvoir norme le corps actuel depuis sa virtualité. C’est par l’actualisation des corps que la norme disciplinaire et régulatrice s’intègre dans la technologie d’État.
Seulement, ceci ne fait et surtout ne fera aucunement disparaître les maladies. Aucun savoir ne parviendra à spatialiser et temporaliser la maladie dans des ordres sémantiques et sémiotiques. Le développement computationnel entend développer des certitudes sur le sol marécageux de la maladie. L’incertitude en fragilisera toujours les fondations. La maladie ne s’épuise par car elle est coextensive à la vie et au vivant. Elle parcourt les vivants dans l’expression historiale de sa morbidité depuis la nuit des temps ; elle est à la fois aurore et crépuscule. Sans visage ni parole elle module les corps. Comme l’écrivait Hésiode :
Des tristesses errent innombrables au milieu des hommes : la terre est pleine de maux, la mer en est pleine. Les maladies, les unes de jour, les autres de nuit, à leur guise, visitent les hommes, apportant la souffrance aux mortels – en silence car le sage Zeus leur a refusé la parole27.
156La maladie n’a pas de parole. Elle marque les corps du sceau de l’ineffable. Traduire la maladie dans des ordres sémantiques et sémiotiques constitue le projet heuristique de la médecine. La beauté et la faiblesse d’un art aussi fragile que nécessaire. On propagera la norme disciplinaire et la norme régulatrice dans le social, la maladie ne disparaîtra pas pour autant. Selon la formule de Foucault : « ironie de ce dispositif : il nous fait croire qu’il en va de notre libération28 ».
Mathieu Corteel
Université Paris-Sorbonne, (Paris IV)
1 J.-N. Corvisart, Préface à la traduction d’Auenbrugger, Nouvelle méthode pour reconnaître les maladies internes de la poitrine, Paris, 1808, p. vii.
2 M. Foucault, Naissance de la clinique, Paris, PUF, Coll. Quadrige Grands Textes, 2009, p. 97-98.
3 M. Foucault, « La politique de santé au xviiie siècle » in Dits et écrits T. III 1976-1979, Paris, Gallimard, coll. Bibliothèque des sciences humaines, 1994, p. 19.
4 Ibid., p. 25.
5 Ibid., p. 26.
6 M. Foucault, Naissance de la clinique, op. cit. p. 98.
7 M. Foucault, Histoire de la sexualité I, La volonté de savoir, Paris, Gallimard, coll. Tel, 2011, p. 184.
8 M. Foucault, « Il faut défendre la société », Cours au Collège de France. 1976, Paris, Gallimard Seuil, Hautes Études, 1997, p. 219.
9 G. Deleuze, Pourparlers, Paris, Les éditions de Minuit, 1990, p. 247.
10 M. Foucault, « Il faut défendre la société », Cours au Collège de France. 1976, op. cit., p. 225.
11 M. Foucault, Naissance de la clinique, op. cit. p. 105.
12 Ibidem.
13 A. Fagot-Largeault, « Calcul des chances et diagnostique médical » in Médecine et philosophie, P.U.F, coll. Éthique et philosophie morale, Paris, 2010, p. 36.
14 Ginsberg, Jeremy, « Detecting influenza epidemics using search engine query data », Nature 457, 2009, p. 1012-1014.
15 A. Rouvroy et T. Berns, « Le nouveau pouvoir statistique » Ou quand le contrôle s’exerce sur un réel normé, docile et sans événement car constitué de corps « numériques »…, Multitudes, 2010/1 no 40, p. 94.
16 G. Deleuze, Différence et répétition, Paris, PUF, coll. Bibliothèque de philosophie contemporaine, 1972, p. 274-275.
17 M. Foucault, « Il faut défendre la société », Cours au Collège de France. 1976, op. cit., p. 225.
18 Thomas Mathiesen (2008) ‘The Viewer Society : Michel Foucault’s “Panopticon” Revisited’, reprinted in Chris Greer (ed.) Crime and Media : A Reader, p. 506–20. London : Routledge.
19 Viktor Mayer-Schönberg, Kenneth Cukier, Big Data, la révolution des données est en marche, Trad. Hayet Dhifallah, Paris, éd Robert Laffont, 2014, p. 53.
20 Achrekar H, Gandhe A, Lazarus R, Yu SH, Liu B (2012) Twitter improves seasonal influenza prediction In : International Conference on Health Informatics (HEALTHINF’12). Nature Publishing Group, based in London, UK, Vilamoura, Portugal, pp 61–70.
21 Voir sur ce point, les rapports de l’OCDE de l’ONU et de l’OMS : OECD (2013), ICTs and the Health Sector. : Towards Smarter Health and Wellness Models, OECD Publishing ; ONU (2014), A world that counts : mobilising data revolution for sustainable Development, http://www.undatarevolution.org/report/, dernière visite décembre 2014 ; WHO (2011), Comparative Analysis of national pandemic influenza preparedness plan, WHO Publishing.
22 A. Rouvroy et T. Berns, « Le nouveau pouvoir statistique » Ou quand le contrôle s’exerce sur un réel normé, docile et sans événement car constitué de corps « numériques »…, Multitudes, 2010/1 no 40, p. 97.
23 Chen J, Qian F, Yan W, Shen B (2013) Translational biomedical informatics in the cloud : present and future. BioMed Res Int 2013 : 8.
24 Ismaël Benslimane, Étude critique du système d’analyse prédictive appliqué à la criminalité : PredPol, URL : http://cortecs.org/wp-content/uploads/2014/10/rapport_stage_Ismael_Benslimane.pdf, dernière visite septembre 2015.
25 Michel Foucault, Naissance de la clinique, Paris, PUF, Quadrige Grands Textes, p. 34.
26 A. Rouvroy et T. Berns, « Le nouveau pouvoir statistique » Ou quand le contrôle s’exerce sur un réel normé, docile et sans événement car constitué de corps « numériques »…, Multitudes, 2010/1 no 40, p. 98.
27 Hésiode, Opera et dies, trad. P. Mazon, Paris, Les Belles Lettres, 1947, p. 89.
28 M. Foucault, Histoire de la sexualité I, La volonté de savoir, op. cit., p. 211.
- Thème CLIL : 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
- ISBN : 978-2-406-07064-1
- EAN : 9782406070641
- ISSN : 2497-1650
- DOI : 10.15122/isbn.978-2-406-07064-1.p.0139
- Éditeur : Classiques Garnier
- Mise en ligne : 12/08/2017
- Périodicité : Semestrielle
- Langue : Français