Aller au contenu

Classiques Garnier

La vie n’est pas donnée

  • Type de publication : Article de revue
  • Revue : Études digitales
    2016 – 2, n° 2
    . Le gouvernement des données
  • Auteur : Rouvroy (Antoinette)
  • Résumé : La gouvernementalité algorithmique met en œuvre une nouvelle forme de normativité qui semble parfaitement adéquate aux mouvements de la vie. Pourtant elle ne fait qu’immuniser, en temps réel, une actualité calculable contre tout ce qui pourrait la mettre en crise. Elle nous plonge dans un univers continu, lisse, sans accident, indemne. Une normativité proprement humaine consiste à assumer l’inadéquation de nos représentations par rapport au monde, l’irréductibilité de la temporalité humaine au temps réel.
  • Pages : 195 à 217
  • Revue : Études digitales
  • Thème CLIL : 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
  • EAN : 9782406070641
  • ISBN : 978-2-406-07064-1
  • ISSN : 2497-1650
  • DOI : 10.15122/isbn.978-2-406-07064-1.p.0195
  • Éditeur : Classiques Garnier
  • Mise en ligne : 12/08/2017
  • Périodicité : Semestrielle
  • Langue : Français
195

LA VIE NEST PAS DONNÉE

La vie, cest lexcès permanent de la vie. La vie – ce qui ne peut jamais être organisé jusquau bout : la désorganisation de la vie.

Boyan Manchev, La métamorphose et linstant. Désorganisation de la vie, La Phocide, 2009.

Comme lécrit Frédéric Neyrat, les deux maux principaux dont meurent les sociétés aujourdhui sont « la croyance en lindemne, qui nous permet de tout détruire » et « la programmation des conduites, qui empêche dexister1 ». Le déploiement dune gouvernementalité algorithmique, cest-à-dire dun gouvernement du monde social fondé sur le traitement algorithmique des données massives plutôt que sur la politique2, le droit et les normes sociales, dans une multitude de secteurs dactivité et de gouvernement, savère un puissant accélérateur et dagonie3.

196

Lhypothèse que nous mettons ici à lépreuve est la suivante :

1) que lidéologie technique des Big Data et la gouvernementalité algorithmique qui sen nourrit sont symptomatiques dun étrange (non-) projet de société : la constitution dun système immunitaire dune réalité numérique calculable contre la vie en tant quelle est résistante à son optimisation en temps réel4.

Il ne sagit en aucun cas dune thanatopolitique qui aurait pour finalité léradication ou la disqualification de la vie : on peut plutôt considérer que ce (non-) projet immunitaire dune actualité calculable et optimisable contre laltération constante du vivant se détourne de la vie, sen désintéresse, exclut sa fragilité et sa productivité, sa capacité à être affectée, du champ du dicible et du visible, la tient finalement pour « quantité négligeable » face aux impératifs doptimisation des états de faits – cest-à-dire limmunisation de lactuel contre les altérations possibles –, aussi insoutenables soient-ils.

Les objectifs de ce mode de gouvernement ne sont plus, comme dans la biopolitique foucaldienne, la préservation ni lintensification de la vie, ni la gestion de la population en tant quelle serait affectée par des processus densemble, mais lincertitude comme telle, cest-à-dire lexcès du possible, son débordement, quaucun calcul de probabilité ne peut absolument dompter. Cette cible beaucoup plus large sétend virtuellement à tout ce qui, dans le monde, tremble dun « devenir autre » imprévisible : à tout ce qui vit. La gouvernementalité algorithmique tend à neutraliser le caractère intempestif de la vie, cest-à-dire la normativité propre au vivant lui-même, la possibilité toujours présente dune bifurcation, conditionnée a minima par la présence et la survivance dun organisme biologique toujours irréductible à la somme des relations numériques qui le (dé) composent.

La « vision » algorithmique ne décrit rien mais fait apparaître des corrélations prédictives – reliant entre eux des données recueillies dans des contextes temporellement et spatialement hétérogènes. Ces 197corrélations rendent appréhendable ce qui nest pas (encore) présent à la vue et produisent de nouveaux objets et de nouveaux espaces pour loptimisation et la préemption5. Cela revient à intervenir par avance sur des événements qui nexistent que sur le mode de la potentialité. Ces nouveaux objets et espaces potentiels, « apparaissent » de manière non figurative, dé-figurée6, comme des sortes de « visions oraculaires » doppotunités et de risques. Ils nont ainsi vocation à être ni vrais ni faux. Ils nexistent quen vue dimmuniser lactuel (effectué, numérisé, expurgé de sa contingence) contre le virtuel, le probable contre lexcès du possible, limpassibilité inorganique contre les événements organiques7. La neutralisation algorithmique de la vie immunise le capitalisme et le néolibéralisme8 contre tout ce qui pourrait les mettre en crise, cest-à-dire les interrompre ou les faire bifurquer. Elle congédie le monde au profit dune réalité faite de flux numériques9 indemnes dévénements ; elle simmunise contre la vie en tant que processus daltération. Elle ignore soigneusement les sujets hétérochroniques que nous sommes en tant quils sont capables dénoncer, de rendre compte deux-mêmes contrefactuellement, dans laprès-coup, et en dépit des profilages dont ils sont les cibles. Cette ignorance, ou plutôt ce contournement ou ce court-circuitage des sujets capables dénonciation les dispensent et les empêchent de fabuler ou de pro-jeter collectivement des possibles irréductibles à loptimisation des états de fait.

198

2) En conséquence, la cible ou le « projet » de la gouvernementalité algorithmique10 ne serait plus, comme dans le biopouvoir décrit par Foucault, la folie, la maladie, le crime, la déviance, les enfants ou les pauvres11, mais plutôt tout ce qui, des comportements possibles des personnes, échapperait au calcul et à loptimisation, cest-à-dire, leur « puissance ». On peut définir cette « puissance » comme ce dont ils sont capables mais dont on ne peut à aucun moment être assuré, cest-à-dire leur capacité à ne pas être là où ils sont attendus, en somme : leur non-coïncidence avec tout « profilage », toute « prédiction ». De cette puissance des sujets, dirons-nous, il ne peut être rendu compte par des chiffres, par des données, mais seulement par des mots et toujours dans laprès-coup, sur le mode de la fabulation singulière, ou de la « comédie », ou encore de la rationalisation contrefactuelle, à contretemps, par laquelle les personnes, aussi déterminées et peu libres aient-elles été dans leurs choix et leurs actes, se rendent néanmoins « dignes de ce qui leur arrive ». Les flux numériques traversent le masque social, cest-à-dire les diverses formes dédition de soi garantissant une certaine opacité des personnes. Ils dispensent de la comparution, de laveu, du témoignage, du récit, de la fabulation, et court-circuitent ainsi les processus de subjectivation ou dindividuation. Ce faisant, ils neutralisent la puissance des sujets, tout entière contenue dans laptitude des sujets à la réticence et lénonciation.

Lhypothèse, reconnaissons-le demblée, est éminemment paradoxale. La gouvernementalité algorithmique ne paraît-elle pas, plutôt quun régime dimmunisation du calculable contre la vie, lincarnation dune normativité immanente à la vie même, et dès lors plus légitime que toute normativité juridique ou sociale ? Nest-elle pas laboutissement et la réalisation de la pensée critique des années soixante et soixante-dix, 199favorable à la prolifération des multiplicités récalcitrantes à toute programmation ? Nincarne-t-elle pas enfin la revanche tant attendue de limmanence contre toutes les ambitions dorganisation transcendante ? Ne représente-t-elle pas enfin la revanche de la vie contre les catégories dans lesquelles nous navons de cesse de lenfermer ? Nassistons-nous pas enfin, par la grâce des algorithmes, à la victoire de lidée, très deleuzienne, dune dissolution tout à fait providentielle de toutes les déterminations « essentielles » fixes dans une multiplicité de structures relationnelles qui sont autant de différences pures, de multiplicités non reconduites à des identités antérieures, libérées de lanalogie, de lopposition, de la ressemblance ? En somme, ne parvenons-nous pas enfin, émancipés de la représentation, au « subreprésentatif12 » ? La vision algorithmique nest-elle pas, dès lors, plus hospitalière pour les singularités, pour la sauvagerie du monde, que le régime de représentation et des préjugés humains ? Dans la mesure où, « gouvernés par nos propres traces » (ou plutôt par les traces de nos relations et interactions), nous devenons chacun, pour nous-mêmes notre propre référence statistique, le gouvernement algorithmique nest-il pas conforme à notre désir dêtre devenus inassignables à aucune norme antécédente à nos propres comportements et trajectoires, ou, pour le dire à la manière de Michel Foucault, au désir de nêtre pas tant gouvernés ou, en tous les cas, de nêtre pas gouvernés au nom dautre chose13 que de nous-mêmes, cest-à-dire de la somme des réseaux, relations, affects qui nous (dé) composent ?

200

UNE IMMANENCE IMMUNISÉE CONTRE LA CRITIQUE ?

Lunivers des Big Data a lair de correspondre trait pour trait à la description, par Maurice Blanchot d« [u]n univers où limage cesse dêtre seconde par rapport au modèle (…) où, enfin, il ny a plus doriginal, mais une éternelle scintillation où se disperse, dans léclat du détour et du retour, labsence dorigine14 ». Ce ne serait pas plus inquiétant quun poème de Mallarmé, – une poésie qui, elle aussi, implique « une dissolution du réel et la constitution dobjets absolument autonomes, cest-à-dire nayant pas même pour point de départ, le repère dune divergence avec quelque réalité que ce soit15 » – si, cette gouvernementalité algorithmique, ne se laissant plus provoquer par la rencontre du « non numérique », de létrangeté, de la nouveauté, ne stérilisait létat de fait. Cette stérilisation expurge le présent à la fois de sa contingence et de toute perspective daltération, en réalité de tout ce qui fait une vie. Elle empêche par conséquent, au nom de limpératif de loptimisation en « temps réel », tout rapport spéculatif, théorique, artistique ou politique au présent, et par suite, toute pro-jection hors de létat de fait16. Bien sûr, nous verrons-nous objecter, les machines, devenant apprenantes, voire même auto-apprenantes, mettent en œuvre use sorte d« axiomatique empirique ». Elles adaptent leurs « axiomes » en fonction des « données » dont elles « apprennent ». Ce faisant, elles ne donnent pas du tout limpression de conserver aucun état de fait puisquelles adaptent leurs biais à toute nouveauté rencontrée. Mais cette adaptation en temps réel, cet affinage continu des modèles qui les fait coller au monde comme une seconde peau, disqualifie également tout événement, tout « raté » 201de la modélisation en autant doccasion de perfectionnement, de mise en adéquation, de « ré-ajointement », de « bouchage » de lécart ou de la fissure sémiotique entre le monde et la réalité algorithmique. Cette « clôture » du numérique sur lui-même, cette forclusion de tout « désajointement » générateur dincertitude, de doute, de suspension, cest ce qui empêche toute projection hors de létat de fait.

La décomposition des formes a priori, cette amnésie des origines, qui est une attention minutieuse mais déhistoricisée aux « parties » – les données – au détriment du « tout » : les événements, les objets, les personnes, leur contexte et tout ce qui fait « consistance » pour lentendement humain. Ceci a pour effet de substituer linforme à la forme et pourrait passer pour un processus daltération radicale. La « vision » algorithmique, défaisant toutes nos images, nos préjugés, contournant nos biais, produit une « sur-critique » altérante, qui, plutôt que de rendre visibles le caractère socialement construit des catégories à travers lesquelles nous sommes prédisposés à percevoir le monde, prétend nous dispenser purement et simplement de toute construction sociale, de toute représentation, au profit dun accès immédiat, dune osmose avec le monde lui-même dans son invincible hétérogénéité.

Mais à linverse dun mode de gouvernement « révolutionnaire », le « monde des Big Data », dune part, congédie en le plongeant dans lombre, tout ce qui lui est hétérogène : le non numérique. Il nouvre des espaces et objets « potentiels » que pour les « épuiser » immédiatement en convertissant leur « potentialité » en actualité gouvernable. On pourrait dire, comme on parle des virus atténués en vaccination, quil sagit dune forme très « atténuée » daltération qui se joue ici et qui, tout en rendant les profils algorithmiques incontestables, précisément parce quils ne se superposent à aucune catégorisation socialement éprouvée, immunise loptimisation algorithmique de létat de fait contre toute altération véritable. Les profils algorithmiques échappent, ainsi à toute hétérogénéité incalculable, à toute « pensée du dehors17 » inassimilable, irréductible, cest-à-dire non monnayable, non finalisée, inorganisable, et souveraine18. Le seul objectif « politique » de la gouvernementalité 202algorithmique est de nous dispenser de nous confronter au monde, à ses interruptions, ses bifurcations, ses événements, son « devenir autre », avec pour effet den neutraliser lincertitude.

Il est à présent bien connu, par exemple, que, dans la mesure où les modélisations algorithmiques se trouvent « entraînées » à « travailler » sur des jeux de données en provenance dun monde social non exempt de biais, de préjugés, et de discriminations, la « rationalité algorithmique » reproduit et, dans un certain nombre de cas, amplifie, ces biais en les rendant moins aisés à identifier et à contester. La clôture du numérique sur lui-même passe par un travail sophistiqué de dé-contextualisation, danonymisation, de désindexation des données relativement aux circonstances dans lesquelles elles ont été « produites ». La réalité algorithmique est une « réalité » amputée de sa contingence. Cest ce qui assure limmunisation du « calculable », sous la forme du « profil » contre, par exemple, toute action ou contestation collective de létat de fait que ce « calculable » contribue à optimiser, cest-à-dire à rendre plus difficile à changer. Les profils nont rien de vrai, ils sont juste « opérationnels » et donc utiles si on veut optimiser et par conséquent accélérer les décisions en matière de marketing, de sécurité, dattribution de crédit, etc.

Il faut ici bien comprendre que ce qui confère aux processus algorithmiques leur aura dimpartialité tout en les rendant, littéralement, « injustifiables » et « injusticiables » cest précisément, dune part, leur indifférence aux catégories et contextes collectifs dans lesquelles vivent les individus (les « profilages » algorithmiques ne se superposent explicitement à aucune catégorisation socialement éprouvée) et, dautre part, leur cécité et leur surdité à légard de ce qui fait non pas lindividualité, laquelle demeure éminemment « hammeçonable » à travers les opérations de profilage19, mais la singularité dune vie, ou, comme le dit Judith Butler, « le fait même de pouvoir simaginer une vie, un temps au-delà du présent, une “forme” de vie20 ». Les algorithmes ne sintéressent pas aux personnes individuelles ni aux collectifs, ils gouvernent le possible 203en identifiant ce qui relie, dune manière statistiquement significative, les relations que les personnes ont avec dautres personnes, avec des objets, avec des lieux, à des profils ou modèles de comportement impersonnels mais prédictifs21.

Dans le domaine du crédit hypothécaire ou du crédit à la consommation par exemple, les applications des analyses de type Big Data permettent dévaluer les risques de non-remboursement propres aux individus en fonction, non plus de leur situation personnelle (situation professionnelle, financière, familiale, etc.), mais de la proportion statistique de mauvais payeurs résidant dans le même type de quartier, faisant leurs courses dans le même type de magasins, fréquentant tel ou tel type de forum de discussion sur Internet… Autant déléments a priori sans lien avec létat de solvabilité actuel ou futur des individus mais ceux-ci se trouvent, statistiquement corrélés (sans que lon sache pourquoi) à un taux de défaut de paiement supérieur à celui de la population générale. Au fond, de cette logique algorithmique purement inductive, émerge une image quasiment épidémiologique du crime, du défaut de paiement, comme quelque chose que les individus « attraperaient » comme par « contagion ». Il sagit alors dun déterminisme articulé, non aux caractères propres à lindividu, mais à ses trajectoires dans lespace, aux relations quil entretient avec ses semblables, aux supermarchés quil fréquente, aux films quil regarde, aux musiques quil écoute, etc. La capacité subjective de « réticence », cest-à-dire cette capacité que les individus ont de ne pas faire tout ce dont ils sont capables, de ne pas actualiser toutes leurs potentialités, doù ils tiennent leur fondamentale imprévisibilité, se trouve alors circonvenue, contournée, par ce modèle épidémique, purement relationnel plutôt quintentionnel ou existentiel, du comportement humain saisi exclusivement en fonction des opportunités et des coûts quil est susceptible dactualiser.

Les modélisations/optimisations anticipatives promettent de congédier le droit lui-même, quand bien même celui-ci serait à la source du lien social comme « forme excédant celle de la multiplicité des petits liens par lesquels les individus sobligent de manière mutuelle ou se lient à 204lunivers des choses qui les entourent22 ». Nous naurions plus besoin daucune forme excédant cette « multiplicité des petits liens » puisque ceux-ci sagenceraient automatiquement, par anticipation sur toute effectuation consciente, dans les profils algorithmiques à travers lesquels les conduites pourraient être gouvernées par avance. La préemption algorithmique – organisant un espace parfaitement lisse et continu, une temporalité unidimensionnelle – dispenserait à la fois de la désobéissance, du jugement et de la sanction, tout en rendant « les normes » à la fois indétectables en tant que normes distinctes de létat de fait et incontestables. Cest que, comme lexpliquait si bien Jacques Derrida, la justice pré-suppose le désajointement23.

UNE PATHOLOGIE DE LA NORME ?

Leur multiplicité, leur plasticité, leur évolutivité en temps réel rendent les modélisations algorithmiques des comportements et trajectoires indiscernables dune normativité immanente à la vie elle-même : les profils ont lair dêtre produits par les mouvements mêmes de la vie, par les trajectoires et actions « spontanées » des usagers rendues impersonnelles par leffet de leur masse. Dans les villes connectées ou smart cities, par exemple, nous sommes tous des usagers du numérique, cest-à-dire que nous émettons tous des signaux métabolisables par les systèmes informatiques, que nous soyons ou non individuellement « connectés » à linternet.

Le propre des analyses de type Big Data est que les catégories ou hypothèses à propos du monde ne président aucunement à la collecte des données comme dans les pratiques statistiques plus classiques : elles en « résultent ». Lanalyse algorithmique a justement comme finalité de faire surgir les catégories ou hypothèses des données elles-mêmes. Lidéologie technique des Big Data pourrait de ce fait sembler parfaitement adaptée au renversement repéré par Georges Canguilhem de la perspective traditionnelle relative au rapport des normes à la vie : la vie nest pas soumise à des normes qui lui seraient extérieures, cest la vie, ou plutôt 205ce sont les mouvements de la vie, devenus, sagissant des mouvements de la vie humaine, éminemment « traçables » et calculables grâce aux « phéromones numériques », émis sur un mode quasiment nécessaire dans une vie quotidienne de plus en plus « numérisée », qui produisent eux-mêmes les « normes », dune manière absolument immanente.

Cependant, pour Georges Canguilhem, cette imprévisible et « essentielle normativité du vivant » tient au fait que « le vivant nest pas réductible à une donnée matérielle mais [quil] est un possible, au sens dune puissance, cest-à-dire une réalité qui se donne demblée comme inachevée parce quelle est confrontée par intermittence aux risques de la maladie, et à celui de la mort en permanence24 ». Or, lidéologie des Big Data et les opérations doptimisation de létat de fait caractéristiques de la gouvernementalité algorithmique, « clôturent » lactualité pure dans un vortex du temps réel aspirant le passé, le présent, mais aussi lavenir. Lambition totalisante de lidéologie des Big Data présuppose en effet de congédier, de désactiver ou de neutraliser tout ce qui est non numérisable, imprévisible et indécidable qui ne pourrait se percevoir et se raconter quà condition de disposer de scènes interruptrices des flux numériques, hétérochroniques plutôt que synchrones au temps « réel25 ».

La gouvernementalité algorithmique atteste, en ce sens, dune pathologie de la norme, dune immobilisation du métabolisme normatif : non seulement la norme nest plus antécédente ni extérieure à la vie, mais elle nest pas davantage lémanation dune normativité de la vie même puisque celle-ci supposait son caractère toujours inachevé, non clôturé. À lopposé, la gouvernementalité algorithmique na de cesse de clôturer le numérique sur lui-même, de limmuniser contre tout événement non optimisable.

Leffet nest plus, comme le pouvoir disciplinaire décrit par Michel Foucault, de normaliser la vie, de normaliser les sujets, cest-à-dire de réformer les corps et les psychismes individuels de manière à ce quils 206se conforment à la norme et même quils lincarnent26, mais, plus radicalement, de neutraliser la vie en tant quelle est vivante, en tant quelle sexcède toujours et quelle demeure par conséquent une source intarissable dincertitude radicale. La gouvernementalité algorithmique, contourne les sujets, ne les « assujettissant » plus à aucune norme antécédente à leurs comportements, mais optimisant ou « personnalisant » par avance leurs environnements physique et informationnel. Elle court-circuite tout processus de « subjectivation » (toute récalcitrance) ou d« individuation » (toute exposition au disparate). La neutralisation des sujets (plutôt que leur normalisation), cest la prise en compte de leur existence expurgée de tout ce qui ne sy limite pas à la juxtaposition de « maintenant » successifs (le temps réel). Cest lindifférence à tout ce qui ne se peut vivre dans le « temps réel » et nécessite létendue dune durée qui demeure comme une « ouverture du temps27 », ou comme processus « hétérochronique » dans lequel coexistent, avec lactuel, tout lineffectué du passé, tout le potentiel de lavenir.

La gouvernementalité algorithmique nest donc pas un régime de normalisation. Elle est même plutôt un régime danomie, dabandon de toute ambition de réellement « gouverner ». Elle abandonne le possible en le livrant aux ambitions des plus aptes à y projeter leurs appétits optimisateurs, les plus capables de façonner des algorithmes et de les paramétrer de manière à ce que ceux-ci fabriquent un futur qui leur soit rentable et favorable, que celui-ci soit plus collectivement désirable ou non. En effet, les algorithmes, contrairement aux discours vantant leur objectivité, leur impartialité, leur désintéressement, ont toujours, dune certaine manière, un « point-de-vue », un point de vue sans « regard » mais situé, fût-ce en raison de la localisation physique des capteurs de données : terminaux informatiques, caméras de vidéosurveillance, GPS, smartphones, objets connectés, mais aussi en raison de la sélection des « jeux de données » sur lesquels sont entraînés les algorithmes apprenants, de lorientation de la supervision humaine de ces algorithmes apprenants, des métriques et seuils d« intérêt », qui bornent la détection algorithmique des corrélations « significatives », 207etc. Il convient donc, pour résister à la neutralisation, de déplacer la critique : il ne sagit plus de simplement dénoncer les catégories à travers lesquelles nous sommes, nous, êtres humains, prédisposés à percevoir et à évaluer le monde – ces catégories sont déjà mises hors jeu dans la « rationalité algorithmique » – mais bien de « voir à lintérieur de la vue » algorithmique, autrement dit de voir ce qui « motive » la vision algorithmique et qui transparaît dans les paramétrages techniques, de discerner ce quelle met en lumière et ce quelle plonge dans lombre en fonction du « point-de-vue » sans « regard » mais bel et bien situé, en fonction des stratégies qui lorientent.

UNE HYPER-INDIVIDUALISATION SANS SUJETS ?

Émancipée du point de vue subjectif de lobservateur comme de celui de lobservé, prenant la forme dun regard « objectif » débarrassé de tout discours, la « vision » algorithmique nest pas sans rappeler ce quécrivait Michel Foucault à propos des régimes de visibilité, dintelligibilité et de « dicibilité » propres à lexpérience clinique depuis le xviiie siècle. Se signale ainsi « le changement infime et décisif qui a substitué à la question “Quavez-vous ?” par laquelle sinaugurait au xviiie siècle le dialogue du médecin et du malade, cette nouvelle question : “Où avez-vous mal28” ? ». En caricaturant un peu, on pourrait dire quà travers lexpérience clinique les récits des patients relatifs à leur expérience, à leur pâtir, linterprétation subjective quils pouvaient faire de leurs symptômes, de leurs besoins de soins, perdaient toute pertinence diagnostique. Ces discours devenaient eux-mêmes, au mieux, des symptômes (plutôt que des explications), devant céder devant la puissance de lobjectivation médicale puisqu« [i]l appartenait à ce langage des choses et à lui seul sans doute dautoriser à propos de lindividu un savoir qui ne fût pas simplement dordre historique ou esthétique29 ». Plus récemment, la fascination pour les déterminants génétiques des 208processus biologiques opérait un nouveau partage du visible et du dicible. La célèbre formule de François Jacob en fait un résumé très clair : « On ninterroge plus la vie aujourdhui dans les laboratoires. On ne cherche plus à en cerner les contours. (…) Cest aux algorithmes du monde vivant que sintéresse aujourdhui la biologie30 ». Avec la génétique, lépistémè visuelle, de surface (la couleur, laspect, la texture des tissus) se trouve remplacée par une épistémè non-visuelle, de profondeurs : on sintéresse au génotype tout autant, sinon plus, quau phénotype. Lavènement des Big Data saccompagne dune radicalisation de ces deux « mouvements » du visible et du dicible : ni lexpérience subjective, ni les corps individuels, ne comptent plus, ne sont plus porteurs daucun savoir, daucune prédiction, daucune vérité « crédible ». Ils nont plus rien à raconter par eux-mêmes, ni à rapporter puisquils ne font pas partie de la réalité numérique. Seules comptent les données. Les Big Data, cest ce langage des choses, des éléments, ou plutôt des relations infimes qui (dé) composent la vie et en brouillent les formes.

Lidéologie technique des Big Data31 nest donc pas une idéologie politique au sens althussérien32 du terme. Cette idéologie des Big Data, 209contrairement à lidéologie politique, nagit pas, ne fonctionne pas de telle sorte quelle « recrute » des sujets parmi les individus. Elle ne « transforme » nullement les individus en sujets par un jeu dinterpellations. Au contraire, lidéologie technique des Big Data fait léconomie de toute entreprise de recrutement, dinterpellation, dassujettissement. Les individus, en tant quindividus, lui sont imperceptibles et indifférents : elle ne les incite aucunement à se reconnaître ni à répondre aux profils de consommateur potentiel, de fraudeur potentiel, de délinquant potentiel, etc. dont ils sont constamment affectés. Lidéal est même plutôt, afin déviter que des comportements stratégiques ninfléchissent les résultats des processus algorithmiques, que les individus naient aucune conscience des processus de profilage dans lesquels ils sont pris et quils ne tentent ni de sy conformer ni de sen écarter.

Pourtant, jamais les interactions entre lindividu et les bureaucraties privées et publiques nont été plus « individualisées » quaujourdhui. Le profilage algorithmique et les applications de personnalisation ou plutôt dindividualisation des interactions administratives, sécuritaires, commerciales, récréatives, de soin, etc., fondés sur des opérations de datamining, de machine learning et de profilage, prétendent placer lindividu au cœur de toutes les préoccupations, adapter pour lui son environnement informationnel et physique sans jamais que ce dernier nait le besoin ni loccasion de formuler ou dénoncer pour lui-même ni pour autrui ses préférences, choix, intentions.

Lindividualisation algorithmique (cest-à-dire loptimisation des interactions entre lindividu et son milieu en fonction dobjectifs sécuritaires, commerciaux, administratifs ou autres) na rien à voir avec la prise en compte de la situation singulière des individus mais substitue les catégorisations impersonnelles, opaques, implicites, aux catégorisations générales et abstraites préétablies, socialement éprouvées, politiquement débattues, idéologiquement contestables. Les profils algorithmiques sont une sorte de moule extrêmement plastique qui précède chacun dans ses 210comportements, trajectoires, choix : un moule qui na plus rien de la fixité des traces, et qui se comporte plutôt comme une empreinte qui précéderait nos pas, comme une ombre jamais tout à fait adéquate qui aurait, sur les mouvements de la proie, toujours une longueur davance. Ce nest pas en tant que « sujets actuels » en tant que « personnes présentes » plus ou moins doués dentendement et de volonté, ni même comme formes humaines résilientes que nous intéressons les « plateformes » ou les services de renseignement nationaux. Cest seulement en tant quémetteurs et agrégats temporaires de données numériques, cest-à-dire de signaux asignifiants mais calculables en masse à léchelle industrielle. Ces signaux ne résultent la plupart du temps daucune transcription intentionnelle des individus, mais sapparentent plutôt aux « traces » que laissent les animaux, traces quils ne peuvent ni sempêcher démettre, ni effacer, des « phéromones numériques ». Peut-être même, alors que nous devenons de plus en plus « prévisibles » dans nos choix de consommation, dans nos trajectoires urbaines etc., navons-nous jamais, en tant que « personnes » été moins significativement « visibles » et « audibles » que dans ce contexte de gouvernementalité algorithmique qui nous dispense de construire et dénoncer, pour nous-mêmes et pour autrui, nos désirs, préférences et intentions. Un profil, ce nest personne, mais ça dispense de devoir se confronter aux personnes. Le contournement des « masques sociaux » (ou le court-circuitage des processus dédition de soi) et lhyper-individualisation (personnalisation) algorithmique des « biotopes » numériques dispense des récits, des témoignages, des aveux, des fabulations des représentations, des projections. Et ce nest pas le moindre des paradoxes que lon dise à propos des décisions fondées sur les données quelles sont « evidence-based », cest-à-dire fondées sur des « preuves », car, si la preuve nest jamais quune manière de faire signe en lieu et place dune chose absente, qui nest pas ou plus accessible aux sens (qui nest donc plus accessible quà travers la représentation), si, donc, elle manifeste une différence/différance entre le monde et sa représentation, lidéologie des Big Data, dans sa prétention à lexhaustivité, suggère au contraire que tout soit toujours encore et déjà présent dans les données, reléguant lidée même de preuve et de représentation au rang des vieilleries inutiles. Bref, cen serait fini de nos « fictions » puisque nous naurions plus à rejoindre un monde dont nous serions séparés : nous faisons, désormais, numériquement 211corps avec lunivers numérique, immergés dans et traversés par les flux jusquau cou et même au-delà !

Cette « sollicitude » impersonnelle pour lindividu – individualisation sans personne33 – présuppose une capture numérique qui passe à travers ou qui dissout tout masque social, au profit dun principe de perméabilité de lespace psychique individuel exposé – par données interposées – à une « visualisation » algorithmique qui nest plus limitée par aucun principe de séparation entre lespace psychique individuel et lespace public (« vernis social », « pudeur », « politesse »), ni déformée ou informée par la persona, cest-à-dire par ce qui, dans la personne, se construit, sédite et sadresse (portant sa voix) consciemment à autrui34. Il ny a plus d« inter-face » au sens propre. Dispensé de toute comparution, de tout interrogatoire, de toute rencontre, le régime doptimisation algorithmique nest pas un « régime de vérité » qui obligerait les sujets à parler sur le mode de la confession, du témoignage, de la négociation. Pour « pratique » quil soit, il prive deffet la seule chose peut-être qui soit réellement imprévisible et incalculable à propos des individus : la manière toujours singulière suivant laquelle les personnes (se) rendent compte delles-mêmes.

Les comportements – à la différence des motivations qui leur sont sous-jacentes et des manières den tendre compte –, sont, de fait, grosso modo prévisibles car ils présentent le plus souvent des régularités. Léconomie comportementale est précisément la science qui étudie ces régularités, mais chacun peut observer dans sa propre vie la part importante qui relève de routines conscientes ou non. En admettant donc que nous soyons, concernant certains de nos comportements, très facilement « profilables » car déterminés par nos habitudes, par nos tendances conformistes, la seule liberté qui se puisse concevoir dès lors dans ce monde relativement déterministe, ce serait « le pouvoir de faire volontairement ce que lon veut involontairement35 ». Ce pouvoir ne peut sexercer pleinement, 212consciemment, que contrefactuellement, dans laprès-coup, à travers la manière toujours singulière dont la personne se rapporte à ses actes, à ses choix, sy relie, les intègre à sa biographie, sen reconnaît lauteur, les inscrit – par leffet dune rationalisation a posteriori, comme autant éléments éventuellement dictés par le destin –, la façon dont cette rationalisation assume les conséquences de choix dont les conditions peuvent avoir échappé à son contrôle. La possibilité dexercer cette capacité a absolument tout à voir avec limpératif deleuzien d« être dignes de ce qui nous arrive » ou encore avec lacte de création si, comme lécrivait Camus, « créer, cest donner une forme à son destin » car, la vie, les formes de vie, ne sont pas données.

Ce nest donc quen rendant compte de soi que du sujet peut surgir, se détacher et se différencier des profils impersonnels. Pour dire les choses très simplement, si le mode dexistence des algorithmes de modélisation du social est loptimisation, notre mode dexistence dêtres sociaux, danimaux politiques, cest la comédie. Or la comédie nécessite, pour avoir lieu, un certain nombre daccessoires, une infrastructure :

les « personnages » munis chacun dun « masque social » (persona) opaque, attestant de la non-coïncidence du « soi », de ce que la personne nest jamais entièrement comprise dans aucune de ses « apparitions » numériques en « temps-réel » ;

la « scène publique » (espace « entre » le monde et sa représentation, assumé comme telle), la « place vide peuplée » quévoque Pierre Legendre à lendroit des institutions36, communauté à venir ou « peuple qui manque », la scène publique ou lespace public est le lieu du projet si tant est que les répétitions et représentations qui sy donnent, parce quelles sexposent au « public », sont parcourues daccidents, de différences, dinventions, de bifurcations.

lespace public, cest cet espace dans lequel la vie nest pas donnée, dans lequel le temps lui-même est « désajointé », hétérochronique, ouvert à tout ce qui précède et excède le pur présent, à tout ce qui en démontre la contingence et laltérabilité, dans lequel nous sommes exposés à des personnes, des choses, des événements 213qui nont pas été prévus pour nous. Cest lespace de nos imaginations et fabulations collectives irréductibles à la concurrence des intérêts individuels et à loptimisation par les algorithmes.

Lespace public, cest aussi lespace dans lequel se crée de la consistance sociale en raison de lexposition à lincertitude collectivement ressentie. Dans la « société actuarielle » ou « assurantielle », la charge de laléa, du sort aveugle, de lexcès du possible sur le probable, était répartie entre les membres de collectivités dassurés ou prise en charge collectivement par lÉtat. Les Big Data nous poussent à passer, à cet égard, dune société actuarielle à une société post-actuarielle. Le calcul actuariel fonctionne avec la notion de probabilité, laquelle ménage (malgré elle) une part irréductible dincertitude radicale. Le calcul « actuel » prétend épuiser le possible, cest-à-dire neutraliser toute incertitude par « actualisation » anticipative du possible. Au lieu de mutualiser la charge de la part irréductible dincertitude radicale qui résiste à tout calcul de probabilité, comme le ferait une assurance, lidéologie des Big Data promet dassigner à chacun son « coût réel » : les primes dassurance vie pourraient être « individualisées » non plus en fonction de catégories actuarielles préétablies, mais en fonction du mode de vie individuel, des habitudes alimentaires, des données relatives à lactivité physique collectées grâce aux gadgets de « quantified self », du nombre dheures quotidiennement passées devant un écran et de quantité dautres caractéristiques individuelles corrélées sans que lon sache pourquoi, à un plus ou moins bon état de santé. Cela signifierait, bien entendu, la fin de lassurance. La rationalité algorithmique signe lavènement dune société post-assurantielle dans laquelle la notion même de risque disparaît en même temps que lidée, ou plutôt la tolérance à lidée quexiste une part tragique, incompressible, dincertitude radicale ou dindécidabilité : celle-là même qui constitue le fond sur quoi le juge doit trancher. Il devient donc possible, dès lors, de se passer de tout système de solidarité entre individus mis en concurrence à léchelle quasi-moléculaire de la donnée numérique infra-personnelle.

Le tournant algorithmique, on le voit, – sous prétexte dobjectiver les processus décisionnels –, ne se pose pas en rupture par rapport aux politiques néolibérales, mais offre à ces dernières des outils particulièrement puissants, dautant plus puissants dailleurs quils passent inaperçus en tant quinstruments de gouvernement.

214

CONCLUSION

Pour en finir avec la fiction numérique :
vive la comédie !

Alors que la tendance spontanée du monde vivant est, précisément, de saltérer, alors que laltération est au principe même de tout ce qui vit, la gouvernementalité algorithmique congédie le monde au profit de flux numériques indemnes dévénements. Ce faisant, elle simmunise contre la vie en tant que processus daltération, contribuant à renforcer notre « croyance en lindemne qui nous permet de tout détruire ». La gouvernementalité algorithmique sévite aussi toute confrontation avec les sujets. Dune part, elle reste impassible, indifférente à leurs capacités de réticence, cest-à-dire à leurs capacités de ne pas faire, de ne pas vouloir ce que les algorithmes ont prévu pour eux, en adaptant leurs « profils » en temps réel, dautre part, elle court-circuite leurs capacités dénonciation, raréfiant les opportunités, pour eux, de rendre compte deux-mêmes en dépit des profilages dont ils sont les cibles et de fabuler ou de projeter des possibles irréductibles à loptimisation des états de fait. Cette neutralisation des capacités de réticence et ce court-circuitage des capacités dénonciation contribuent à la programmation algorithmique des conduites. Que la gouvernementalité algorithmique soit « sans monde », « sans vie », et quelle soit aussi « sans sujets » indique à suffisance quelle est inhabitée et inhabitable. Cest en fonction de limpératif que nous avons de sauvegarder un monde habitable quil importe den limiter lexpansion, pour nous-mêmes mais aussi pour tout ce qui vit aujourdhui et qui vivra demain.

Limiter lexpansion de la « rationalité » algorithmique, présuppose une politique des espaces-temps possibles respectueuse des médiations à travers lesquelles nous avons un rapport au monde. Cela suppose la prise en compte de la vie comme processus daltération affectant les organismes biologiques, et des sujets comme « puissances ». Plutôt que labandon des espaces-temps possibles aux logiques doptimisation prédatrice et de préemption qui neutralisent le possible. Nous ne dirons pas ici si cela doit passer par un nouveau « pacte » entre les États, les entreprises, les citoyens, voire les machines réflexives que deviennent les dispositifs 215algorithmiques, par la reconnaissance inconditionnelle dun droit à un advenir non pré-occupé, par la revalorisation de toutes les sortes de scènes hétérochroniques (dont la scène du procès judiciaire, mais pas seulement) sur lesquelles les « personnes », fortes de leurs capacités dénonciation, puissent sindividuer, se détacher et se différencier des profils impersonnels plus ou moins efficaces qui les précèdent comme lombre gloutonne que le passé projetterait sur lavenir, ou encore par dautres stratégies de désajointement et de ré-historicisation du temps à rebours de son engloutissement dans le vortex dun temps réel qui abolit la durée.

Lincertitude tient au fait que la vie est elle-même un processus daltération, que les sujets ne sont jamais que des processus de subjectivation ou dindividuation, ne sont jamais adéquats à eux-mêmes dans aucun présent mais ne se vivent que dans la durée. Voilà labîme auquel lexistence humaine est adossée : un abîme indispensable sans quoi nous mourons. Cet abîme, que prétend combler lexhaustivité numérique, nous oblige à parler, à dire ce qui nest pas pré-dit. À la différence de ce qui se passe dans le contexte de la gouvernementalité algorithmique où le sens napparaît plus construit mais toujours déjà donné, moulé génériquement à même un corps statistique informe, où tout semble toujours déjà présent sans avoir besoin dêtre re-présenté ni interprété, la construction humaine du réel, y compris sur les scènes parlementaire et judiciaire, franchit un interstice entre la réalité (pour nous) et le monde (en soi). Cet interstice est dordre métaphorique, symbolique, institutionnel, conventionnel.

Linadéquation, le désajointement de nos représentations au monde, au lieu dêtre perçue comme un défaut, un accroc dans la trame fluide du réel, devrait être préservée en tant que scène de re-présentation, ou plutôt comme scène dexposition des limites de la représentation, obligeant la fabulation, linvention, linterprétation, linstitution des individus – et des collectifs – comme « sujets » consistants, cest-à-dire aussi, dotés dagency ou de capacité dagir. Lune des spécificités de l« état de droit » est dailleurs quil (a) ménage, précisément, grâce à tout ce dont on lui fait reproche ce qui fissure, dans lespace et dans le temps, sa propre unité et sa propre totalité37. Ainsi son inefficacité, son défaut deffectivité, ses retards, son caractère obtrusif, linélégance du 216débat parlementaire, rendent indispensable « leffort de recomposition individuel et collectif de la totalité perdue38 ». Cet (a) ménagement tient à lénonciation ce pont jeté au-dessus de la non-coïncidence, des virtualités et potentialités qui nous constituent et nous dés-instituent du même geste, réclamant sans cesse que nous jouions, mettant, dans le jeu qui les actualise à flanc dabîme, nos singularités incalculables. Ainsi, peut-être pourrait-on avancer que ce quil conviendrait de ranimer, de raviver aujourdhui, ne relèverait pas tant de lutopie ni de la représentation que de la scénographie et de la fabulation collective : la comédie humaine plutôt que la fiction numérique39, les conditions psychiques, matérielles, temporelles et spatiales de lénonciation.

Sil faut bien reconnaître que les Big Data, et les algorithmes qui sen nourrissent, sont aujourdhui majoritairement asservis aux intérêts optimisateurs et prédateurs qui pensent simmuniser ainsi de tout ce qui, dans le monde, pourrait leur faire obstacle reconnaissons aussi que les Big Data et algorithmes pourraient tout aussi bien, si nous le voulions, servir à nous rendre plus sensibles aux singularités, aux bifurcations possibles, aux perspectives daltération présentes dans la complexité du monde. Tout est question de paramétrage, et ces paramétrages techniques ont une portée absolument, radicalement politique. Reconnaissons enfin que la gouvernementalité algorithmique nest quun type dexploitation possible de l« intelligence des données », symptomatique dune certaine paresse de la pensée qui voudrait se dispenser dinterpréter le monde, de lui donner sens et dune certaine abdication de notre devoir de (nous) gouverner et dassumer la responsabilité des 217décisions que nous prenons. Le problème est de notre côté, pas du côté des machines dont les « visions » ne sont rien dautre quune manière parmi dautres de produire ce qui, « compte » comme réel. Disons alors que ce nest quen préservant une multiplicité de modes de production de ce qui compte comme réel contre la tentation de laisser les « data sciences » se substituer sans restes à tous autres les points-de vue disciplinaires que nous pourrons « déclore » la rationalité algorithmique et lui permettre de redevenir ce quelle est : non pas un simulacre mais un point de vue sur le monde.

Antoinette Rouvroy

FNRS, Centre de Recherche
en Information, droit et Société (CRIDS)

Université de Namur

1 Frédéric Neyrat, Atopies. Manifeste pour la philosophie, éditions Nous, 2014. Voir aussi Frédéric Neyrat, « De la civilisation comme crash-test », C-Theory, 2007, http://ctheory.net/ctheory_wp/de-la-civilisation-comme-crash-test/

2 La « stratégie » du candidat à la présidence française Emmanuel Macron est tout à fait exemplaire à cet égard : son « diagnostic » de létat de la France, réalisé grâce au traitement algorithmique des 25000 réponses individuelles (non débattues) à un questionnaire distribué en porte à porte doit lui permettre d« induire » – sur un mode quasi-automatique – son « programme politique », comme si les propositions politiques se déduisaient mathématiquement des opinions exprimées individuellement plutôt que de leur rencontre dans lespace public, le calcul algorithmique dispensant purement et simplement de tout programme antécédant au recueil et au traitement statistique des opinions.

3 Voir cet égard Frédéric Neyrat, Clinamen. Flux, absolu et loi spirale, éditions ère, 2011, p. 113 : « Le substitut intégral est cet impossible télétechnique qui ne produit la vie que comme information digitalisée, recombinante (God is Code), ou comme déchet, pas même mort, moins que ça. »

4 Barthélemy Durrive, « Quelques concepts de Georges Canguilhem », Enquête sur lhomme vivant : URL : http://ehvi.ens-lyon.fr/IMG/pdf/quelques_concepts_de_canguilhem.pdf : « il y aura toujours quelque chose à nécessairement penser (en philosophie notamment) dans létude du vivant, parce quil ne peut pas être intégralement expliqué selon la dépendance des effets à leurs causes. »

5 Voir Orit Halpern, Beautiful Data. A History of Vision and Reason since 1945, Duke University Press, 2014.

6 « Déchirer la représentation, le tissu de la transcendance, (…), est la condition nécessaire pour faire face (sans pourtant jamais faire face) à linimaginable. » (Boyan Manchev, « Persistance de limage et devenir-sensible du sensible. Georges Bataille et la surcritique de la représentation »Le Portique, n.29, 2012, document 9.

7 Voir à cet égard nos réflexions dans Antoinette Rouvroy, « Technology, Virtuality and Utopia : Governementality in an Age of Autonomic Computing », in. Mireille Hildebrandt, Antoinette Rouvroy (dir.), Law, Human Agency and Autonomic Computing, Routledge, 2011.

8 Voir nos réflexions antérieures dans Antoinette Rouvroy, « La gouvernementalité algorithmique : radicalisation et stratégie immunitaire du capitalisme et du néolibéralisme ? », La Deleuziana, La vie et le nombre. –N.3/2016. URL : http://www.ladeleuziana.org/wp-content/uploads/2016/12/Rouvroy2f.pdf

9 « (…) soit labolition de toute substance-sujet et de toute substance-objet : il ny a que des ponctualités subjectives et objectives, des pauses momentannées dans la production indéfinie des flux. » (Frédéric Neyrat, Clinamen. Flux, absolu et loi spirale, ère, 2011, p. 25)

10 La gouvernementalité algorithmique, dont il sera ici question, est un mode de gouvernement des conduites nourri essentiellement de données numériques brutes en quantités massives, signaux infra-personnels et a-signifiants mais quantifiables. Opérant par régulation anticipative des possibles plutôt que par règlementation des conduites, ses dispositifs sadressent aux agents humains sur le mode de lalerte provoquant du réflexe plutôt quen sappuyant sur leurs capacités dentendement et de volonté. La reconfiguration constante, en temps réel, des environnements informationnels et physiques des individus en fonction de « lintelligence des données » est donc un mode de gouvernement inédit.

11 Voir à cet égard Michel Foucault, Les anormaux, Cours au Collège de France 1974-1975, Suil, 1999, en particulier le du 15 janvier 1975.

12 Voir Frédéric Streicher, « Différence et répétition chez Deleuze », Sciences Humaines. No spécial no 3, mai-juin 2005, Foucault, Derrida, deleuze : Pensées rebelles.

13 « Dans cette grande inquiétude autour de la manière de gouverner et dans la recherche sur les manières de gouverner, on repère une perpétuelle question qui serait : “comment ne pas être gouverné comme cela, par cela, au nom de ces principes-ci, en vue de tels objectifs et par le moyen de tels procédés, pas comme ça, pas pour ça, pas par eux” (…) Et je proposerais donc, comme toute première définition de la critique, cette caractérisation générale : lart de nêtre pas tellement gouverné. » (Michel Foucault, « Quest-ce que les Lumières ? », Dits et Écrits. Tome IV, texte no 339.)

14 Maurice Blanchot, « Le Rire des dieux », Nouvelle Revue française, juillet 1965, p. 103, cité par Gilles Deleuze in Logique du sens, Paris, Minuit, « Critique », 1969, p. 303.

15 Clément Rosset, Linvisible, Minuit, 2012, p. 79-80.

16 Camille de Toledo, « Ce qui est réel, ce qui est matériel,… »in. Camille de Toledo, AliochaImhoff, Kantuta Quiros, Les potentiels du temps, Manuella Éditions, 2016, p. 56, note 19 : « la spéculation financière est le contraire de la spéculation potentielle, car cest celle qui réalise le moins de métamorphoses, qui transforme le moins les mondes, entretenant comme elle le fait la rente de ce qui est déjà là, et la dette de ce qui est déjà dû. Au contraire, la spéculation artistique, théorique ou politique charrie un plus grand coefficient de métamorphoses en ce quelle permet de modifier le régime dimpossibilités. La pensée potentielle est toujours un choix pour le plus grand coefficient de métamorphoses. »

17 Michel Foucault, « La pensée du dehors », 1966, Dits et écrits, I. 1954-1975 texte no 38.

18 Juliette Feyel, « Le corps hétérogène de Georges Bataille », Actes du colloque international Projections : des organes hors du corps (13-14 octobre 2006), http://www.epistemocritique.org/IMG/pdf/ProjectionsFeyel.pdf

19 La multiplication des « profils » qui nous sont assignés et leur « croisement » nous « individualise » en effet au point quil devienne impossible, à lère des données massives, de garantir lanonymat : toute donnée, même non relative à une personne identifiée ou identifiable, est susceptible dêtre croisée avec dautres jusqà permettre la réidentification de la personne « anonyme »dont elle « émane ».

20 Grégoire Chamayou, Judith Butler, « Vivre sa vie. Entretien avec Judith Butler », Contretemps, no 18, 2007, p. 113.

21 Pour une description de la gouvernementalité algorithmique comme gouvernement des/par les relations, nous nous permettons de renvoyer à Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives démancipation. Le disparate comme condition dindividuation par la relation ? », Réseaux, 2013, Vol. 1, No 177, p. 163-196.

22 Laurent De Sutter, Magic. Une métapysique du lien. PUF, 2015.

23 Jacques Derrida, Spectres de Marx, Galilée, 1993.

24 Pierre Macherey, « De Canguilhem à Canguilhem, en passant par Foucault », In : Georges Canguilhem, philosophes et historien des sciences, colloque 1990, Bibliothèque du Collège international de philosophie, éd. Albin-Michel, p. 286-294.

25 « La “santé”, que Canguilhem définissait comme une capacité normative du vivant, est tributaire des interdépendances dynamiques qui constituent lécosystème dans lequel le corps sindividue. Et nul ne peut définir a priori les dépendances qui importeront dans lavenir. Voilà ce que les théologiens néolibéraux ne parviennent pas à penser : que lindividu est un corps, que ce corps est légion et que son mode dexistence est celui du collectif sindividuant. » (Jeffrey Tallane, statut Facebook non publié)

26 Michel Foucault, Surveiller et punir, Gallimard, 1975.

27 Louverture du temps « ne doit rien avoir à voir avec le savoir. Ni donc avec lignorance. Cette ouverture doit préserver cette hétérogénéïté comme la seule chance dun avenir »Jacques Derrida, Spectres de Marx, Gallilée, 1993.

28 Michel Foucault, Naîssance de la clinique, PUF, coll. Quadrige, (1re édition, 1963), 9e édition, 2015, p. 17-18.

29 Ibid., p. 11.

30 François Jacob, La logique du vivant, une histoire de lhérédité, Gallimard, 1970, p. 321.

31 Pierre Macherey, « Idéologie : le mot, lidée, la chose. Langue, discours, idéologie, sujet, sens : de Thomas Herbert à Michel Pêcheux », 17/01/2007, URL : http://stl.recherche.univ.lille3.fr/seminaires/philosophie/macherey/macherey20062007/macherey17012007.html

32 « Nous suggérons que lidéologie “agit” ou “fonctionne” de telle sorte quelle “recrute” des sujets parmi les individus (elle les recrute tous), ou “transforme” les individus en sujets (elle les transforme tous) par cette opération très précise que nous appelons linterpellation, quon peut se représenter sur le type même de la plus banale interpellation policière (ou non) de tous les jours : “Hé, vous, là-bas !” (note : Linterpellation, pratique quotidienne, soumise à un rituel précis, prend une forme tout à fait “spéciale” dans la pratique policière de linterpellation, où il sagit dinterpeller des “suspects”). – Si nous supposons que la scène théorique imaginée se passe dans la rue, lindividu interpellé se retourne. Par cette simple conversion physique de 180 degrés, il devient sujet. Pourquoi ? Parce quil a reconnu que linterpellation sadressait “bien” à lui, et que “cétait bien lui qui était interpellé” (et pas un autre). Lexpérience montre que les télécommunications pratiques de linterpellation sont telles que linterpellation ne rate pratiquement jamais son homme : appel verbal ou coup de sifflet, linterpellé reconnaît toujours que cétait bien lui quon interpellait. Cest tout de même un phénomène étrange, et qui ne sexplique pas seulement, malgré le grand nombre de ceux qui “ont quelque chose à se reprocher”, par le “sentiment de culpabilité”. – Naturellement, pour la commodité et la clarté de lexposition de notre petit théâtre théorique, nous avons dû présenter les choses sous la forme dune séquence, avec un avant et un après, donc sous la forme dune succession temporelle. Il y a des individus qui se promènent. Quelque part (en général dans leur dos) retentit linterpellation : “Hé, vous, là-bas !”. Un individu (à 90 % cest toujours celui qui est visé) se retourne, croyant-soupçonnant-sachant quil sagit de lui, donc reconnaissant que “cest bien lui” qui est visé par linterpellation. Mais dans la réalité les choses se passent sans aucune succession. Cest une seule et même chose que lexistence de lidéologie et linterpellation des individus en sujets. » (L. Althusser, « Idéologie et appareils idéologiques dÉtat (notes pour une recherche) », in Positions, éd. Sociales, 1976, p. 113-114.))

33 Nous nous permettons de renvoyer le lecteur à Antoinette Rouvroy, « Des données sans personne : le fétichisme de la donnée personnelle à lépreuve de lidéologie des Big Data », in Jacky Richard & Laurent Cytermann (dir.), Étude annuelle du Conseil dÉtat « Le numérique et les droits fondamentaux », La Documentation française, 2014.

34 À ce propos lire notamment Pierre Legendre, « Postface – Réactions au colloque », in. Emmanuel Dockes et Gilles Lhuillier, éd., Le corps et ses représentations, Litec, 2001.

35 Robert Musil, Der Mann ohne Eigenschaften, in. Gesammelte Werke, Rowohlt Verlag, 1978, p. 608, cité par Jacques Bouveresse, Robert Musil. Lhomme probable, le sasard, la moyenne et lescargot de lhistoire, Léclat, 1993, p. 102-103.

36 Pierre Legendre, De la société comme texte. Linéaments dune anthromologie dogmatique, Fayard, 2001.

37 Nous nous permettons, à cet égard, de renvoyer le lecteur à : Antoinette Rouvroy, «Pour une défense de léprouvant inopérationnabilité face à lopérationnabilité sans épreuve du comportementalisme numérique», Dissensus, Revue de Philosophie politique de lUniversité de Liège, 2001, No 4.

38 Nicolas Bourriaud, « Le paradigme esthétique », Chimères, n.21, Hiver 1994 : « Lécosophie guattarienne pose elle aussi la totalité de lexistence comme préalable à la production de subjectivité. Celle-ci y prend la place centrale que Marx assigne au travail et que Bataille donne à lexpérience intérieure, dans leffort de recomposition individuel et collectif de la totalité perdue. »

39 « Lutopie nest pas un bon concept : il y a plutôt une “fabulation” commune au peuple et à lart. Il faudrait reprendre la notion bergsonnienne de fabulation pour lui donner un sens politique », disait Gilles Deleuze dans un entretien avec Toni Négri (Gilles Deleuze, « Le devenir révolutionaire et les créations politiques », entretien avec Toni Negri, Futur antérieur, n.1, 1990. URL : http://multitudes.samizdat.net/article.php3?id_article=495) Lire également Lire également Ronald Bogue, « Bergsonian Fabulation and the People to Come », in Deleuzes Way. Essays in Transverse Ethics and Aesthetics, Ashgate, 2007, p. 91-106.