La vie n’est pas donnée
- Type de publication : Article de revue
- Revue : Études digitales
2016 – 2, n° 2. Le gouvernement des données - Auteur : Rouvroy (Antoinette)
- Pages : 195 à 217
- Revue : Études digitales
LA VIE N’EST PAS DONNÉE
La vie, c’est l’excès permanent de la vie. La vie – ce qui ne peut jamais être organisé jusqu’au bout : la désorganisation de la vie.
Boyan Manchev, La métamorphose et l’instant. Désorganisation de la vie, La Phocide, 2009.
Comme l’écrit Frédéric Neyrat, les deux maux principaux dont meurent les sociétés aujourd’hui sont « la croyance en l’indemne, qui nous permet de tout détruire » et « la programmation des conduites, qui empêche d’exister1 ». Le déploiement d’une gouvernementalité algorithmique, c’est-à-dire d’un gouvernement du monde social fondé sur le traitement algorithmique des données massives plutôt que sur la politique2, le droit et les normes sociales, dans une multitude de secteurs d’activité et de gouvernement, s’avère un puissant accélérateur et d’agonie3.
196L’hypothèse que nous mettons ici à l’épreuve est la suivante :
1) que l’idéologie technique des Big Data et la gouvernementalité algorithmique qui s’en nourrit sont symptomatiques d’un étrange (non-) projet de société : la constitution d’un système immunitaire d’une réalité numérique calculable contre la vie en tant qu’elle est résistante à son optimisation en temps réel4.
Il ne s’agit en aucun cas d’une thanatopolitique qui aurait pour finalité l’éradication ou la disqualification de la vie : on peut plutôt considérer que ce (non-) projet immunitaire d’une actualité calculable et optimisable contre l’altération constante du vivant se détourne de la vie, s’en désintéresse, exclut sa fragilité et sa productivité, sa capacité à être affectée, du champ du dicible et du visible, la tient finalement pour « quantité négligeable » face aux impératifs d’optimisation des états de faits – c’est-à-dire l’immunisation de l’actuel contre les altérations possibles –, aussi insoutenables soient-ils.
Les objectifs de ce mode de gouvernement ne sont plus, comme dans la biopolitique foucaldienne, la préservation ni l’intensification de la vie, ni la gestion de la population en tant qu’elle serait affectée par des processus d’ensemble, mais l’incertitude comme telle, c’est-à-dire l’excès du possible, son débordement, qu’aucun calcul de probabilité ne peut absolument dompter. Cette cible beaucoup plus large s’étend virtuellement à tout ce qui, dans le monde, tremble d’un « devenir autre » imprévisible : à tout ce qui vit. La gouvernementalité algorithmique tend à neutraliser le caractère intempestif de la vie, c’est-à-dire la normativité propre au vivant lui-même, la possibilité toujours présente d’une bifurcation, conditionnée a minima par la présence et la survivance d’un organisme biologique toujours irréductible à la somme des relations numériques qui le (dé) composent.
La « vision » algorithmique ne décrit rien mais fait apparaître des corrélations prédictives – reliant entre eux des données recueillies dans des contextes temporellement et spatialement hétérogènes. Ces 197corrélations rendent appréhendable ce qui n’est pas (encore) présent à la vue et produisent de nouveaux objets et de nouveaux espaces pour l’optimisation et la préemption5. Cela revient à intervenir par avance sur des événements qui n’existent que sur le mode de la potentialité. Ces nouveaux objets et espaces potentiels, « apparaissent » de manière non figurative, dé-figurée6, comme des sortes de « visions oraculaires » d’oppotunités et de risques. Ils n’ont ainsi vocation à être ni vrais ni faux. Ils n’existent qu’en vue d’immuniser l’actuel (effectué, numérisé, expurgé de sa contingence) contre le virtuel, le probable contre l’excès du possible, l’impassibilité inorganique contre les événements organiques7. La neutralisation algorithmique de la vie immunise le capitalisme et le néolibéralisme8 contre tout ce qui pourrait les mettre en crise, c’est-à-dire les interrompre ou les faire bifurquer. Elle congédie le monde au profit d’une réalité faite de flux numériques9 indemnes d’événements ; elle s’immunise contre la vie en tant que processus d’altération. Elle ignore soigneusement les sujets hétérochroniques que nous sommes en tant qu’ils sont capables d’énoncer, de rendre compte d’eux-mêmes contrefactuellement, dans l’après-coup, et en dépit des profilages dont ils sont les cibles. Cette ignorance, ou plutôt ce contournement ou ce court-circuitage des sujets capables d’énonciation les dispensent et les empêchent de fabuler ou de pro-jeter collectivement des possibles irréductibles à l’optimisation des états de fait.
1982) En conséquence, la cible ou le « projet » de la gouvernementalité algorithmique10 ne serait plus, comme dans le biopouvoir décrit par Foucault, la folie, la maladie, le crime, la déviance, les enfants ou les pauvres11, mais plutôt tout ce qui, des comportements possibles des personnes, échapperait au calcul et à l’optimisation, c’est-à-dire, leur « puissance ». On peut définir cette « puissance » comme ce dont ils sont capables mais dont on ne peut à aucun moment être assuré, c’est-à-dire leur capacité à ne pas être là où ils sont attendus, en somme : leur non-coïncidence avec tout « profilage », toute « prédiction ». De cette puissance des sujets, dirons-nous, il ne peut être rendu compte par des chiffres, par des données, mais seulement par des mots et toujours dans l’après-coup, sur le mode de la fabulation singulière, ou de la « comédie », ou encore de la rationalisation contrefactuelle, à contretemps, par laquelle les personnes, aussi déterminées et peu libres aient-elles été dans leurs choix et leurs actes, se rendent néanmoins « dignes de ce qui leur arrive ». Les flux numériques traversent le masque social, c’est-à-dire les diverses formes d’édition de soi garantissant une certaine opacité des personnes. Ils dispensent de la comparution, de l’aveu, du témoignage, du récit, de la fabulation, et court-circuitent ainsi les processus de subjectivation ou d’individuation. Ce faisant, ils neutralisent la puissance des sujets, tout entière contenue dans l’aptitude des sujets à la réticence et l’énonciation.
L’hypothèse, reconnaissons-le d’emblée, est éminemment paradoxale. La gouvernementalité algorithmique ne paraît-elle pas, plutôt qu’un régime d’immunisation du calculable contre la vie, l’incarnation d’une normativité immanente à la vie même, et dès lors plus légitime que toute normativité juridique ou sociale ? N’est-elle pas l’aboutissement et la réalisation de la pensée critique des années soixante et soixante-dix, 199favorable à la prolifération des multiplicités récalcitrantes à toute programmation ? N’incarne-t-elle pas enfin la revanche tant attendue de l’immanence contre toutes les ambitions d’organisation transcendante ? Ne représente-t-elle pas enfin la revanche de la vie contre les catégories dans lesquelles nous n’avons de cesse de l’enfermer ? N’assistons-nous pas enfin, par la grâce des algorithmes, à la victoire de l’idée, très deleuzienne, d’une dissolution tout à fait providentielle de toutes les déterminations « essentielles » fixes dans une multiplicité de structures relationnelles qui sont autant de différences pures, de multiplicités non reconduites à des identités antérieures, libérées de l’analogie, de l’opposition, de la ressemblance ? En somme, ne parvenons-nous pas enfin, émancipés de la représentation, au « subreprésentatif12 » ? La vision algorithmique n’est-elle pas, dès lors, plus hospitalière pour les singularités, pour la sauvagerie du monde, que le régime de représentation et des préjugés humains ? Dans la mesure où, « gouvernés par nos propres traces » (ou plutôt par les traces de nos relations et interactions), nous devenons chacun, pour nous-mêmes notre propre référence statistique, le gouvernement algorithmique n’est-il pas conforme à notre désir d’être devenus inassignables à aucune norme antécédente à nos propres comportements et trajectoires, ou, pour le dire à la manière de Michel Foucault, au désir de n’être pas tant gouvernés ou, en tous les cas, de n’être pas gouvernés au nom d’autre chose13 que de nous-mêmes, c’est-à-dire de la somme des réseaux, relations, affects qui nous (dé) composent ?
200UNE IMMANENCE IMMUNISÉE CONTRE LA CRITIQUE ?
L’univers des Big Data a l’air de correspondre trait pour trait à la description, par Maurice Blanchot d’« [u]n univers où l’image cesse d’être seconde par rapport au modèle (…) où, enfin, il n’y a plus d’original, mais une éternelle scintillation où se disperse, dans l’éclat du détour et du retour, l’absence d’origine14 ». Ce ne serait pas plus inquiétant qu’un poème de Mallarmé, – une poésie qui, elle aussi, implique « une dissolution du réel et la constitution d’objets absolument autonomes, c’est-à-dire n’ayant pas même pour point de départ, le repère d’une divergence avec quelque réalité que ce soit15 » – si, cette gouvernementalité algorithmique, ne se laissant plus provoquer par la rencontre du « non numérique », de l’étrangeté, de la nouveauté, ne stérilisait l’état de fait. Cette stérilisation expurge le présent à la fois de sa contingence et de toute perspective d’altération, en réalité de tout ce qui fait une vie. Elle empêche par conséquent, au nom de l’impératif de l’optimisation en « temps réel », tout rapport spéculatif, théorique, artistique ou politique au présent, et par suite, toute pro-jection hors de l’état de fait16. Bien sûr, nous verrons-nous objecter, les machines, devenant apprenantes, voire même auto-apprenantes, mettent en œuvre use sorte d’« axiomatique empirique ». Elles adaptent leurs « axiomes » en fonction des « données » dont elles « apprennent ». Ce faisant, elles ne donnent pas du tout l’impression de conserver aucun état de fait puisqu’elles adaptent leurs biais à toute nouveauté rencontrée. Mais cette adaptation en temps réel, cet affinage continu des modèles qui les fait coller au monde comme une seconde peau, disqualifie également tout événement, tout « raté » 201de la modélisation en autant d’occasion de perfectionnement, de mise en adéquation, de « ré-ajointement », de « bouchage » de l’écart ou de la fissure sémiotique entre le monde et la réalité algorithmique. Cette « clôture » du numérique sur lui-même, cette forclusion de tout « désajointement » générateur d’incertitude, de doute, de suspension, c’est ce qui empêche toute projection hors de l’état de fait.
La décomposition des formes a priori, cette amnésie des origines, qui est une attention minutieuse mais déhistoricisée aux « parties » – les données – au détriment du « tout » : les événements, les objets, les personnes, leur contexte et tout ce qui fait « consistance » pour l’entendement humain. Ceci a pour effet de substituer l’informe à la forme et pourrait passer pour un processus d’altération radicale. La « vision » algorithmique, défaisant toutes nos images, nos préjugés, contournant nos biais, produit une « sur-critique » altérante, qui, plutôt que de rendre visibles le caractère socialement construit des catégories à travers lesquelles nous sommes prédisposés à percevoir le monde, prétend nous dispenser purement et simplement de toute construction sociale, de toute représentation, au profit d’un accès immédiat, d’une osmose avec le monde lui-même dans son invincible hétérogénéité.
Mais à l’inverse d’un mode de gouvernement « révolutionnaire », le « monde des Big Data », d’une part, congédie en le plongeant dans l’ombre, tout ce qui lui est hétérogène : le non numérique. Il n’ouvre des espaces et objets « potentiels » que pour les « épuiser » immédiatement en convertissant leur « potentialité » en actualité gouvernable. On pourrait dire, comme on parle des virus atténués en vaccination, qu’il s’agit d’une forme très « atténuée » d’altération qui se joue ici et qui, tout en rendant les profils algorithmiques incontestables, précisément parce qu’ils ne se superposent à aucune catégorisation socialement éprouvée, immunise l’optimisation algorithmique de l’état de fait contre toute altération véritable. Les profils algorithmiques échappent, ainsi à toute hétérogénéité incalculable, à toute « pensée du dehors17 » inassimilable, irréductible, c’est-à-dire non monnayable, non finalisée, inorganisable, et souveraine18. Le seul objectif « politique » de la gouvernementalité 202algorithmique est de nous dispenser de nous confronter au monde, à ses interruptions, ses bifurcations, ses événements, son « devenir autre », avec pour effet d’en neutraliser l’incertitude.
Il est à présent bien connu, par exemple, que, dans la mesure où les modélisations algorithmiques se trouvent « entraînées » à « travailler » sur des jeux de données en provenance d’un monde social non exempt de biais, de préjugés, et de discriminations, la « rationalité algorithmique » reproduit et, dans un certain nombre de cas, amplifie, ces biais en les rendant moins aisés à identifier et à contester. La clôture du numérique sur lui-même passe par un travail sophistiqué de dé-contextualisation, d’anonymisation, de désindexation des données relativement aux circonstances dans lesquelles elles ont été « produites ». La réalité algorithmique est une « réalité » amputée de sa contingence. C’est ce qui assure l’immunisation du « calculable », sous la forme du « profil » contre, par exemple, toute action ou contestation collective de l’état de fait que ce « calculable » contribue à optimiser, c’est-à-dire à rendre plus difficile à changer. Les profils n’ont rien de vrai, ils sont juste « opérationnels » et donc utiles si on veut optimiser et par conséquent accélérer les décisions en matière de marketing, de sécurité, d’attribution de crédit, etc.
Il faut ici bien comprendre que ce qui confère aux processus algorithmiques leur aura d’impartialité tout en les rendant, littéralement, « injustifiables » et « injusticiables » c’est précisément, d’une part, leur indifférence aux catégories et contextes collectifs dans lesquelles vivent les individus (les « profilages » algorithmiques ne se superposent explicitement à aucune catégorisation socialement éprouvée) et, d’autre part, leur cécité et leur surdité à l’égard de ce qui fait non pas l’individualité, laquelle demeure éminemment « hammeçonable » à travers les opérations de profilage19, mais la singularité d’une vie, ou, comme le dit Judith Butler, « le fait même de pouvoir s’imaginer une vie, un temps au-delà du présent, une “forme” de vie20 ». Les algorithmes ne s’intéressent pas aux personnes individuelles ni aux collectifs, ils gouvernent le possible 203en identifiant ce qui relie, d’une manière statistiquement significative, les relations que les personnes ont avec d’autres personnes, avec des objets, avec des lieux, à des profils ou modèles de comportement impersonnels mais prédictifs21.
Dans le domaine du crédit hypothécaire ou du crédit à la consommation par exemple, les applications des analyses de type Big Data permettent d’évaluer les risques de non-remboursement propres aux individus en fonction, non plus de leur situation personnelle (situation professionnelle, financière, familiale, etc.), mais de la proportion statistique de mauvais payeurs résidant dans le même type de quartier, faisant leurs courses dans le même type de magasins, fréquentant tel ou tel type de forum de discussion sur Internet… Autant d’éléments a priori sans lien avec l’état de solvabilité actuel ou futur des individus mais ceux-ci se trouvent, statistiquement corrélés (sans que l’on sache pourquoi) à un taux de défaut de paiement supérieur à celui de la population générale. Au fond, de cette logique algorithmique purement inductive, émerge une image quasiment épidémiologique du crime, du défaut de paiement, comme quelque chose que les individus « attraperaient » comme par « contagion ». Il s’agit alors d’un déterminisme articulé, non aux caractères propres à l’individu, mais à ses trajectoires dans l’espace, aux relations qu’il entretient avec ses semblables, aux supermarchés qu’il fréquente, aux films qu’il regarde, aux musiques qu’il écoute, etc. La capacité subjective de « réticence », c’est-à-dire cette capacité que les individus ont de ne pas faire tout ce dont ils sont capables, de ne pas actualiser toutes leurs potentialités, d’où ils tiennent leur fondamentale imprévisibilité, se trouve alors circonvenue, contournée, par ce modèle épidémique, purement relationnel plutôt qu’intentionnel ou existentiel, du comportement humain saisi exclusivement en fonction des opportunités et des coûts qu’il est susceptible d’actualiser.
Les modélisations/optimisations anticipatives promettent de congédier le droit lui-même, quand bien même celui-ci serait à la source du lien social comme « forme excédant celle de la multiplicité des petits liens par lesquels les individus s’obligent de manière mutuelle ou se lient à 204l’univers des choses qui les entourent22 ». Nous n’aurions plus besoin d’aucune forme excédant cette « multiplicité des petits liens » puisque ceux-ci s’agenceraient automatiquement, par anticipation sur toute effectuation consciente, dans les profils algorithmiques à travers lesquels les conduites pourraient être gouvernées par avance. La préemption algorithmique – organisant un espace parfaitement lisse et continu, une temporalité unidimensionnelle – dispenserait à la fois de la désobéissance, du jugement et de la sanction, tout en rendant « les normes » à la fois indétectables en tant que normes distinctes de l’état de fait et incontestables. C’est que, comme l’expliquait si bien Jacques Derrida, la justice pré-suppose le désajointement23.
UNE PATHOLOGIE DE LA NORME ?
Leur multiplicité, leur plasticité, leur évolutivité en temps réel rendent les modélisations algorithmiques des comportements et trajectoires indiscernables d’une normativité immanente à la vie elle-même : les profils ont l’air d’être produits par les mouvements mêmes de la vie, par les trajectoires et actions « spontanées » des usagers rendues impersonnelles par l’effet de leur masse. Dans les villes connectées ou smart cities, par exemple, nous sommes tous des usagers du numérique, c’est-à-dire que nous émettons tous des signaux métabolisables par les systèmes informatiques, que nous soyons ou non individuellement « connectés » à l’internet.
Le propre des analyses de type Big Data est que les catégories ou hypothèses à propos du monde ne président aucunement à la collecte des données comme dans les pratiques statistiques plus classiques : elles en « résultent ». L’analyse algorithmique a justement comme finalité de faire surgir les catégories ou hypothèses des données elles-mêmes. L’idéologie technique des Big Data pourrait de ce fait sembler parfaitement adaptée au renversement repéré par Georges Canguilhem de la perspective traditionnelle relative au rapport des normes à la vie : la vie n’est pas soumise à des normes qui lui seraient extérieures, c’est la vie, ou plutôt 205ce sont les mouvements de la vie, devenus, s’agissant des mouvements de la vie humaine, éminemment « traçables » et calculables grâce aux « phéromones numériques », émis sur un mode quasiment nécessaire dans une vie quotidienne de plus en plus « numérisée », qui produisent eux-mêmes les « normes », d’une manière absolument immanente.
Cependant, pour Georges Canguilhem, cette imprévisible et « essentielle normativité du vivant » tient au fait que « le vivant n’est pas réductible à une donnée matérielle mais [qu’il] est un possible, au sens d’une puissance, c’est-à-dire une réalité qui se donne d’emblée comme inachevée parce qu’elle est confrontée par intermittence aux risques de la maladie, et à celui de la mort en permanence24 ». Or, l’idéologie des Big Data et les opérations d’optimisation de l’état de fait caractéristiques de la gouvernementalité algorithmique, « clôturent » l’actualité pure dans un vortex du temps réel aspirant le passé, le présent, mais aussi l’avenir. L’ambition totalisante de l’idéologie des Big Data présuppose en effet de congédier, de désactiver ou de neutraliser tout ce qui est non numérisable, imprévisible et indécidable qui ne pourrait se percevoir et se raconter qu’à condition de disposer de scènes interruptrices des flux numériques, hétérochroniques plutôt que synchrones au temps « réel25 ».
La gouvernementalité algorithmique atteste, en ce sens, d’une pathologie de la norme, d’une immobilisation du métabolisme normatif : non seulement la norme n’est plus antécédente ni extérieure à la vie, mais elle n’est pas davantage l’émanation d’une normativité de la vie même puisque celle-ci supposait son caractère toujours inachevé, non clôturé. À l’opposé, la gouvernementalité algorithmique n’a de cesse de clôturer le numérique sur lui-même, de l’immuniser contre tout événement non optimisable.
L’effet n’est plus, comme le pouvoir disciplinaire décrit par Michel Foucault, de normaliser la vie, de normaliser les sujets, c’est-à-dire de réformer les corps et les psychismes individuels de manière à ce qu’ils 206se conforment à la norme et même qu’ils l’incarnent26, mais, plus radicalement, de neutraliser la vie en tant qu’elle est vivante, en tant qu’elle s’excède toujours et qu’elle demeure par conséquent une source intarissable d’incertitude radicale. La gouvernementalité algorithmique, contourne les sujets, ne les « assujettissant » plus à aucune norme antécédente à leurs comportements, mais optimisant ou « personnalisant » par avance leurs environnements physique et informationnel. Elle court-circuite tout processus de « subjectivation » (toute récalcitrance) ou d’« individuation » (toute exposition au disparate). La neutralisation des sujets (plutôt que leur normalisation), c’est la prise en compte de leur existence expurgée de tout ce qui ne s’y limite pas à la juxtaposition de « maintenant » successifs (le temps réel). C’est l’indifférence à tout ce qui ne se peut vivre dans le « temps réel » et nécessite l’étendue d’une durée qui demeure comme une « ouverture du temps27 », ou comme processus « hétérochronique » dans lequel coexistent, avec l’actuel, tout l’ineffectué du passé, tout le potentiel de l’avenir.
La gouvernementalité algorithmique n’est donc pas un régime de normalisation. Elle est même plutôt un régime d’anomie, d’abandon de toute ambition de réellement « gouverner ». Elle abandonne le possible en le livrant aux ambitions des plus aptes à y projeter leurs appétits optimisateurs, les plus capables de façonner des algorithmes et de les paramétrer de manière à ce que ceux-ci fabriquent un futur qui leur soit rentable et favorable, que celui-ci soit plus collectivement désirable ou non. En effet, les algorithmes, contrairement aux discours vantant leur objectivité, leur impartialité, leur désintéressement, ont toujours, d’une certaine manière, un « point-de-vue », un point de vue sans « regard » mais situé, fût-ce en raison de la localisation physique des capteurs de données : terminaux informatiques, caméras de vidéosurveillance, GPS, smartphones, objets connectés, mais aussi en raison de la sélection des « jeux de données » sur lesquels sont entraînés les algorithmes apprenants, de l’orientation de la supervision humaine de ces algorithmes apprenants, des métriques et seuils d’« intérêt », qui bornent la détection algorithmique des corrélations « significatives », 207etc. Il convient donc, pour résister à la neutralisation, de déplacer la critique : il ne s’agit plus de simplement dénoncer les catégories à travers lesquelles nous sommes, nous, êtres humains, prédisposés à percevoir et à évaluer le monde – ces catégories sont déjà mises hors jeu dans la « rationalité algorithmique » – mais bien de « voir à l’intérieur de la vue » algorithmique, autrement dit de voir ce qui « motive » la vision algorithmique et qui transparaît dans les paramétrages techniques, de discerner ce qu’elle met en lumière et ce qu’elle plonge dans l’ombre en fonction du « point-de-vue » sans « regard » mais bel et bien situé, en fonction des stratégies qui l’orientent.
UNE HYPER-INDIVIDUALISATION SANS SUJETS ?
Émancipée du point de vue subjectif de l’observateur comme de celui de l’observé, prenant la forme d’un regard « objectif » débarrassé de tout discours, la « vision » algorithmique n’est pas sans rappeler ce qu’écrivait Michel Foucault à propos des régimes de visibilité, d’intelligibilité et de « dicibilité » propres à l’expérience clinique depuis le xviiie siècle. Se signale ainsi « le changement infime et décisif qui a substitué à la question “Qu’avez-vous ?” par laquelle s’inaugurait au xviiie siècle le dialogue du médecin et du malade, cette nouvelle question : “Où avez-vous mal28” ? ». En caricaturant un peu, on pourrait dire qu’à travers l’expérience clinique les récits des patients relatifs à leur expérience, à leur pâtir, l’interprétation subjective qu’ils pouvaient faire de leurs symptômes, de leurs besoins de soins, perdaient toute pertinence diagnostique. Ces discours devenaient eux-mêmes, au mieux, des symptômes (plutôt que des explications), devant céder devant la puissance de l’objectivation médicale puisqu’« [i]l appartenait à ce langage des choses et à lui seul sans doute d’autoriser à propos de l’individu un savoir qui ne fût pas simplement d’ordre historique ou esthétique29 ». Plus récemment, la fascination pour les déterminants génétiques des 208processus biologiques opérait un nouveau partage du visible et du dicible. La célèbre formule de François Jacob en fait un résumé très clair : « On n’interroge plus la vie aujourd’hui dans les laboratoires. On ne cherche plus à en cerner les contours. (…) C’est aux algorithmes du monde vivant que s’intéresse aujourd’hui la biologie30 ». Avec la génétique, l’épistémè visuelle, de surface (la couleur, l’aspect, la texture des tissus) se trouve remplacée par une épistémè non-visuelle, de profondeurs : on s’intéresse au génotype tout autant, sinon plus, qu’au phénotype. L’avènement des Big Data s’accompagne d’une radicalisation de ces deux « mouvements » du visible et du dicible : ni l’expérience subjective, ni les corps individuels, ne comptent plus, ne sont plus porteurs d’aucun savoir, d’aucune prédiction, d’aucune vérité « crédible ». Ils n’ont plus rien à raconter par eux-mêmes, ni à rapporter puisqu’ils ne font pas partie de la réalité numérique. Seules comptent les données. Les Big Data, c’est ce langage des choses, des éléments, ou plutôt des relations infimes qui (dé) composent la vie et en brouillent les formes.
L’idéologie technique des Big Data31 n’est donc pas une idéologie politique au sens althussérien32 du terme. Cette idéologie des Big Data, 209contrairement à l’idéologie politique, n’agit pas, ne fonctionne pas de telle sorte qu’elle « recrute » des sujets parmi les individus. Elle ne « transforme » nullement les individus en sujets par un jeu d’interpellations. Au contraire, l’idéologie technique des Big Data fait l’économie de toute entreprise de recrutement, d’interpellation, d’assujettissement. Les individus, en tant qu’individus, lui sont imperceptibles et indifférents : elle ne les incite aucunement à se reconnaître ni à répondre aux profils de consommateur potentiel, de fraudeur potentiel, de délinquant potentiel, etc. dont ils sont constamment affectés. L’idéal est même plutôt, afin d’éviter que des comportements stratégiques n’infléchissent les résultats des processus algorithmiques, que les individus n’aient aucune conscience des processus de profilage dans lesquels ils sont pris et qu’ils ne tentent ni de s’y conformer ni de s’en écarter.
Pourtant, jamais les interactions entre l’individu et les bureaucraties privées et publiques n’ont été plus « individualisées » qu’aujourd’hui. Le profilage algorithmique et les applications de personnalisation ou plutôt d’individualisation des interactions administratives, sécuritaires, commerciales, récréatives, de soin, etc., fondés sur des opérations de datamining, de machine learning et de profilage, prétendent placer l’individu au cœur de toutes les préoccupations, adapter pour lui son environnement informationnel et physique sans jamais que ce dernier n’ait le besoin ni l’occasion de formuler ou d’énoncer pour lui-même ni pour autrui ses préférences, choix, intentions.
L’individualisation algorithmique (c’est-à-dire l’optimisation des interactions entre l’individu et son milieu en fonction d’objectifs sécuritaires, commerciaux, administratifs ou autres) n’a rien à voir avec la prise en compte de la situation singulière des individus mais substitue les catégorisations impersonnelles, opaques, implicites, aux catégorisations générales et abstraites préétablies, socialement éprouvées, politiquement débattues, idéologiquement contestables. Les profils algorithmiques sont une sorte de moule extrêmement plastique qui précède chacun dans ses 210comportements, trajectoires, choix : un moule qui n’a plus rien de la fixité des traces, et qui se comporte plutôt comme une empreinte qui précéderait nos pas, comme une ombre jamais tout à fait adéquate qui aurait, sur les mouvements de la proie, toujours une longueur d’avance. Ce n’est pas en tant que « sujets actuels » en tant que « personnes présentes » plus ou moins doués d’entendement et de volonté, ni même comme formes humaines résilientes que nous intéressons les « plateformes » ou les services de renseignement nationaux. C’est seulement en tant qu’émetteurs et agrégats temporaires de données numériques, c’est-à-dire de signaux asignifiants mais calculables en masse à l’échelle industrielle. Ces signaux ne résultent la plupart du temps d’aucune transcription intentionnelle des individus, mais s’apparentent plutôt aux « traces » que laissent les animaux, traces qu’ils ne peuvent ni s’empêcher d’émettre, ni effacer, des « phéromones numériques ». Peut-être même, alors que nous devenons de plus en plus « prévisibles » dans nos choix de consommation, dans nos trajectoires urbaines etc., n’avons-nous jamais, en tant que « personnes » été moins significativement « visibles » et « audibles » que dans ce contexte de gouvernementalité algorithmique qui nous dispense de construire et d’énoncer, pour nous-mêmes et pour autrui, nos désirs, préférences et intentions. Un profil, ce n’est personne, mais ça dispense de devoir se confronter aux personnes. Le contournement des « masques sociaux » (ou le court-circuitage des processus d’édition de soi) et l’hyper-individualisation (personnalisation) algorithmique des « biotopes » numériques dispense des récits, des témoignages, des aveux, des fabulations des représentations, des projections. Et ce n’est pas le moindre des paradoxes que l’on dise à propos des décisions fondées sur les données qu’elles sont « evidence-based », c’est-à-dire fondées sur des « preuves », car, si la preuve n’est jamais qu’une manière de faire signe en lieu et place d’une chose absente, qui n’est pas ou plus accessible aux sens (qui n’est donc plus accessible qu’à travers la représentation), si, donc, elle manifeste une différence/différance entre le monde et sa représentation, l’idéologie des Big Data, dans sa prétention à l’exhaustivité, suggère au contraire que tout soit toujours encore et déjà présent dans les données, reléguant l’idée même de preuve et de représentation au rang des vieilleries inutiles. Bref, c’en serait fini de nos « fictions » puisque nous n’aurions plus à rejoindre un monde dont nous serions séparés : nous faisons, désormais, numériquement 211corps avec l’univers numérique, immergés dans et traversés par les flux jusqu’au cou et même au-delà !
Cette « sollicitude » impersonnelle pour l’individu – individualisation sans personne33 – présuppose une capture numérique qui passe à travers ou qui dissout tout masque social, au profit d’un principe de perméabilité de l’espace psychique individuel exposé – par données interposées – à une « visualisation » algorithmique qui n’est plus limitée par aucun principe de séparation entre l’espace psychique individuel et l’espace public (« vernis social », « pudeur », « politesse »), ni déformée ou informée par la persona, c’est-à-dire par ce qui, dans la personne, se construit, s’édite et s’adresse (portant sa voix) consciemment à autrui34. Il n’y a plus d’« inter-face » au sens propre. Dispensé de toute comparution, de tout interrogatoire, de toute rencontre, le régime d’optimisation algorithmique n’est pas un « régime de vérité » qui obligerait les sujets à parler sur le mode de la confession, du témoignage, de la négociation. Pour « pratique » qu’il soit, il prive d’effet la seule chose peut-être qui soit réellement imprévisible et incalculable à propos des individus : la manière toujours singulière suivant laquelle les personnes (se) rendent compte d’elles-mêmes.
Les comportements – à la différence des motivations qui leur sont sous-jacentes et des manières d’en tendre compte –, sont, de fait, grosso modo prévisibles car ils présentent le plus souvent des régularités. L’économie comportementale est précisément la science qui étudie ces régularités, mais chacun peut observer dans sa propre vie la part importante qui relève de routines conscientes ou non. En admettant donc que nous soyons, concernant certains de nos comportements, très facilement « profilables » car déterminés par nos habitudes, par nos tendances conformistes, la seule liberté qui se puisse concevoir dès lors dans ce monde relativement déterministe, ce serait « le pouvoir de faire volontairement ce que l’on veut involontairement35 ». Ce pouvoir ne peut s’exercer pleinement, 212consciemment, que contrefactuellement, dans l’après-coup, à travers la manière toujours singulière dont la personne se rapporte à ses actes, à ses choix, s’y relie, les intègre à sa biographie, s’en reconnaît l’auteur, les inscrit – par l’effet d’une rationalisation a posteriori, comme autant éléments éventuellement dictés par le destin –, la façon dont cette rationalisation assume les conséquences de choix dont les conditions peuvent avoir échappé à son contrôle. La possibilité d’exercer cette capacité a absolument tout à voir avec l’impératif deleuzien d’« être dignes de ce qui nous arrive » ou encore avec l’acte de création si, comme l’écrivait Camus, « créer, c’est donner une forme à son destin » car, la vie, les formes de vie, ne sont pas données.
Ce n’est donc qu’en rendant compte de soi que du sujet peut surgir, se détacher et se différencier des profils impersonnels. Pour dire les choses très simplement, si le mode d’existence des algorithmes de modélisation du social est l’optimisation, notre mode d’existence d’êtres sociaux, d’animaux politiques, c’est la comédie. Or la comédie nécessite, pour avoir lieu, un certain nombre d’accessoires, une infrastructure :
–les « personnages » munis chacun d’un « masque social » (persona) opaque, attestant de la non-coïncidence du « soi », de ce que la personne n’est jamais entièrement comprise dans aucune de ses « apparitions » numériques en « temps-réel » ;
–la « scène publique » (espace « entre » le monde et sa représentation, assumé comme telle), la « place vide peuplée » qu’évoque Pierre Legendre à l’endroit des institutions36, communauté à venir ou « peuple qui manque », la scène publique ou l’espace public est le lieu du projet si tant est que les répétitions et représentations qui s’y donnent, parce qu’elles s’exposent au « public », sont parcourues d’accidents, de différences, d’inventions, de bifurcations.
–l’espace public, c’est cet espace dans lequel la vie n’est pas donnée, dans lequel le temps lui-même est « désajointé », hétérochronique, ouvert à tout ce qui précède et excède le pur présent, à tout ce qui en démontre la contingence et l’altérabilité, dans lequel nous sommes exposés à des personnes, des choses, des événements 213–qui n’ont pas été prévus pour nous. C’est l’espace de nos imaginations et fabulations collectives irréductibles à la concurrence des intérêts individuels et à l’optimisation par les algorithmes.
L’espace public, c’est aussi l’espace dans lequel se crée de la consistance sociale en raison de l’exposition à l’incertitude collectivement ressentie. Dans la « société actuarielle » ou « assurantielle », la charge de l’aléa, du sort aveugle, de l’excès du possible sur le probable, était répartie entre les membres de collectivités d’assurés ou prise en charge collectivement par l’État. Les Big Data nous poussent à passer, à cet égard, d’une société actuarielle à une société post-actuarielle. Le calcul actuariel fonctionne avec la notion de probabilité, laquelle ménage (malgré elle) une part irréductible d’incertitude radicale. Le calcul « actuel » prétend épuiser le possible, c’est-à-dire neutraliser toute incertitude par « actualisation » anticipative du possible. Au lieu de mutualiser la charge de la part irréductible d’incertitude radicale qui résiste à tout calcul de probabilité, comme le ferait une assurance, l’idéologie des Big Data promet d’assigner à chacun son « coût réel » : les primes d’assurance vie pourraient être « individualisées » non plus en fonction de catégories actuarielles préétablies, mais en fonction du mode de vie individuel, des habitudes alimentaires, des données relatives à l’activité physique collectées grâce aux gadgets de « quantified self », du nombre d’heures quotidiennement passées devant un écran et de quantité d’autres caractéristiques individuelles corrélées sans que l’on sache pourquoi, à un plus ou moins bon état de santé. Cela signifierait, bien entendu, la fin de l’assurance. La rationalité algorithmique signe l’avènement d’une société post-assurantielle dans laquelle la notion même de risque disparaît en même temps que l’idée, ou plutôt la tolérance à l’idée qu’existe une part tragique, incompressible, d’incertitude radicale ou d’indécidabilité : celle-là même qui constitue le fond sur quoi le juge doit trancher. Il devient donc possible, dès lors, de se passer de tout système de solidarité entre individus mis en concurrence à l’échelle quasi-moléculaire de la donnée numérique infra-personnelle.
Le tournant algorithmique, on le voit, – sous prétexte d’objectiver les processus décisionnels –, ne se pose pas en rupture par rapport aux politiques néolibérales, mais offre à ces dernières des outils particulièrement puissants, d’autant plus puissants d’ailleurs qu’ils passent inaperçus en tant qu’instruments de gouvernement.
214CONCLUSION
Pour en finir avec la fiction numérique :
vive la comédie !
Alors que la tendance spontanée du monde vivant est, précisément, de s’altérer, alors que l’altération est au principe même de tout ce qui vit, la gouvernementalité algorithmique congédie le monde au profit de flux numériques indemnes d’événements. Ce faisant, elle s’immunise contre la vie en tant que processus d’altération, contribuant à renforcer notre « croyance en l’indemne qui nous permet de tout détruire ». La gouvernementalité algorithmique s’évite aussi toute confrontation avec les sujets. D’une part, elle reste impassible, indifférente à leurs capacités de réticence, c’est-à-dire à leurs capacités de ne pas faire, de ne pas vouloir ce que les algorithmes ont prévu pour eux, en adaptant leurs « profils » en temps réel, d’autre part, elle court-circuite leurs capacités d’énonciation, raréfiant les opportunités, pour eux, de rendre compte d’eux-mêmes en dépit des profilages dont ils sont les cibles et de fabuler ou de projeter des possibles irréductibles à l’optimisation des états de fait. Cette neutralisation des capacités de réticence et ce court-circuitage des capacités d’énonciation contribuent à la programmation algorithmique des conduites. Que la gouvernementalité algorithmique soit « sans monde », « sans vie », et qu’elle soit aussi « sans sujets » indique à suffisance qu’elle est inhabitée et inhabitable. C’est en fonction de l’impératif que nous avons de sauvegarder un monde habitable qu’il importe d’en limiter l’expansion, pour nous-mêmes mais aussi pour tout ce qui vit aujourd’hui et qui vivra demain.
Limiter l’expansion de la « rationalité » algorithmique, présuppose une politique des espaces-temps possibles respectueuse des médiations à travers lesquelles nous avons un rapport au monde. Cela suppose la prise en compte de la vie comme processus d’altération affectant les organismes biologiques, et des sujets comme « puissances ». Plutôt que l’abandon des espaces-temps possibles aux logiques d’optimisation prédatrice et de préemption qui neutralisent le possible. Nous ne dirons pas ici si cela doit passer par un nouveau « pacte » entre les États, les entreprises, les citoyens, voire les machines réflexives que deviennent les dispositifs 215algorithmiques, par la reconnaissance inconditionnelle d’un droit à un advenir non pré-occupé, par la revalorisation de toutes les sortes de scènes hétérochroniques (dont la scène du procès judiciaire, mais pas seulement) sur lesquelles les « personnes », fortes de leurs capacités d’énonciation, puissent s’individuer, se détacher et se différencier des profils impersonnels plus ou moins efficaces qui les précèdent comme l’ombre gloutonne que le passé projetterait sur l’avenir, ou encore par d’autres stratégies de désajointement et de ré-historicisation du temps à rebours de son engloutissement dans le vortex d’un temps réel qui abolit la durée.
L’incertitude tient au fait que la vie est elle-même un processus d’altération, que les sujets ne sont jamais que des processus de subjectivation ou d’individuation, ne sont jamais adéquats à eux-mêmes dans aucun présent mais ne se vivent que dans la durée. Voilà l’abîme auquel l’existence humaine est adossée : un abîme indispensable sans quoi nous mourons. Cet abîme, que prétend combler l’exhaustivité numérique, nous oblige à parler, à dire ce qui n’est pas pré-dit. À la différence de ce qui se passe dans le contexte de la gouvernementalité algorithmique où le sens n’apparaît plus construit mais toujours déjà donné, moulé génériquement à même un corps statistique informe, où tout semble toujours déjà présent sans avoir besoin d’être re-présenté ni interprété, la construction humaine du réel, y compris sur les scènes parlementaire et judiciaire, franchit un interstice entre la réalité (pour nous) et le monde (en soi). Cet interstice est d’ordre métaphorique, symbolique, institutionnel, conventionnel.
L’inadéquation, le désajointement de nos représentations au monde, au lieu d’être perçue comme un défaut, un accroc dans la trame fluide du réel, devrait être préservée en tant que scène de re-présentation, ou plutôt comme scène d’exposition des limites de la représentation, obligeant la fabulation, l’invention, l’interprétation, l’institution des individus – et des collectifs – comme « sujets » consistants, c’est-à-dire aussi, dotés d’agency ou de capacité d’agir. L’une des spécificités de l’« état de droit » est d’ailleurs qu’il (a) ménage, précisément, grâce à tout ce dont on lui fait reproche ce qui fissure, dans l’espace et dans le temps, sa propre unité et sa propre totalité37. Ainsi son inefficacité, son défaut d’effectivité, ses retards, son caractère obtrusif, l’inélégance du 216débat parlementaire, rendent indispensable « l’effort de recomposition individuel et collectif de la totalité perdue38 ». Cet (a) ménagement tient à l’énonciation ce pont jeté au-dessus de la non-coïncidence, des virtualités et potentialités qui nous constituent et nous dés-instituent du même geste, réclamant sans cesse que nous jouions, mettant, dans le jeu qui les actualise à flanc d’abîme, nos singularités incalculables. Ainsi, peut-être pourrait-on avancer que ce qu’il conviendrait de ranimer, de raviver aujourd’hui, ne relèverait pas tant de l’utopie ni de la représentation que de la scénographie et de la fabulation collective : la comédie humaine plutôt que la fiction numérique39, les conditions psychiques, matérielles, temporelles et spatiales de l’énonciation.
S’il faut bien reconnaître que les Big Data, et les algorithmes qui s’en nourrissent, sont aujourd’hui majoritairement asservis aux intérêts optimisateurs et prédateurs qui pensent s’immuniser ainsi de tout ce qui, dans le monde, pourrait leur faire obstacle reconnaissons aussi que les Big Data et algorithmes pourraient tout aussi bien, si nous le voulions, servir à nous rendre plus sensibles aux singularités, aux bifurcations possibles, aux perspectives d’altération présentes dans la complexité du monde. Tout est question de paramétrage, et ces paramétrages techniques ont une portée absolument, radicalement politique. Reconnaissons enfin que la gouvernementalité algorithmique n’est qu’un type d’exploitation possible de l’« intelligence des données », symptomatique d’une certaine paresse de la pensée qui voudrait se dispenser d’interpréter le monde, de lui donner sens et d’une certaine abdication de notre devoir de (nous) gouverner et d’assumer la responsabilité des 217décisions que nous prenons. Le problème est de notre côté, pas du côté des machines dont les « visions » ne sont rien d’autre qu’une manière parmi d’autres de produire ce qui, « compte » comme réel. Disons alors que ce n’est qu’en préservant une multiplicité de modes de production de ce qui compte comme réel contre la tentation de laisser les « data sciences » se substituer sans restes à tous autres les points-de vue disciplinaires que nous pourrons « déclore » la rationalité algorithmique et lui permettre de redevenir ce qu’elle est : non pas un simulacre mais un point de vue sur le monde.
Antoinette Rouvroy
FNRS, Centre de Recherche
en Information, droit et Société (CRIDS)
Université de Namur
1 Frédéric Neyrat, Atopies. Manifeste pour la philosophie, éditions Nous, 2014. Voir aussi Frédéric Neyrat, « De la civilisation comme crash-test », C-Theory, 2007, http://ctheory.net/ctheory_wp/de-la-civilisation-comme-crash-test/
2 La « stratégie » du candidat à la présidence française Emmanuel Macron est tout à fait exemplaire à cet égard : son « diagnostic » de l’état de la France, réalisé grâce au traitement algorithmique des 25000 réponses individuelles (non débattues) à un questionnaire distribué en porte à porte doit lui permettre d’« induire » – sur un mode quasi-automatique – son « programme politique », comme si les propositions politiques se déduisaient mathématiquement des opinions exprimées individuellement plutôt que de leur rencontre dans l’espace public, le calcul algorithmique dispensant purement et simplement de tout programme antécédant au recueil et au traitement statistique des opinions.
3 Voir cet égard Frédéric Neyrat, Clinamen. Flux, absolu et loi spirale, éditions ère, 2011, p. 113 : « Le substitut intégral est cet impossible télétechnique qui ne produit la vie que comme information digitalisée, recombinante (God is Code), ou comme déchet, pas même mort, moins que ça. »
4 Barthélemy Durrive, « Quelques concepts de Georges Canguilhem », Enquête sur l’homme vivant : URL : http://ehvi.ens-lyon.fr/IMG/pdf/quelques_concepts_de_canguilhem.pdf : « il y aura toujours quelque chose à nécessairement penser (en philosophie notamment) dans l’étude du vivant, parce qu’il ne peut pas être intégralement expliqué selon la dépendance des effets à leurs causes. »
5 Voir Orit Halpern, Beautiful Data. A History of Vision and Reason since 1945, Duke University Press, 2014.
6 « Déchirer la représentation, le tissu de la transcendance, (…), est la condition nécessaire pour faire face (sans pourtant jamais faire face) à l’inimaginable. » (Boyan Manchev, « Persistance de l’image et devenir-sensible du sensible. Georges Bataille et la surcritique de la représentation »Le Portique, n.29, 2012, document 9.
7 Voir à cet égard nos réflexions dans Antoinette Rouvroy, « Technology, Virtuality and Utopia : Governementality in an Age of Autonomic Computing », in. Mireille Hildebrandt, Antoinette Rouvroy (dir.), Law, Human Agency and Autonomic Computing, Routledge, 2011.
8 Voir nos réflexions antérieures dans Antoinette Rouvroy, « La gouvernementalité algorithmique : radicalisation et stratégie immunitaire du capitalisme et du néolibéralisme ? », La Deleuziana, La vie et le nombre. –N.3/2016. URL : http://www.ladeleuziana.org/wp-content/uploads/2016/12/Rouvroy2f.pdf
9 « (…) soit l’abolition de toute substance-sujet et de toute substance-objet : il n’y a que des ponctualités subjectives et objectives, des pauses momentannées dans la production indéfinie des flux. » (Frédéric Neyrat, Clinamen. Flux, absolu et loi spirale, ère, 2011, p. 25)
10 La gouvernementalité algorithmique, dont il sera ici question, est un mode de gouvernement des conduites nourri essentiellement de données numériques brutes en quantités massives, signaux infra-personnels et a-signifiants mais quantifiables. Opérant par régulation anticipative des possibles plutôt que par règlementation des conduites, ses dispositifs s’adressent aux agents humains sur le mode de l’alerte provoquant du réflexe plutôt qu’en s’appuyant sur leurs capacités d’entendement et de volonté. La reconfiguration constante, en temps réel, des environnements informationnels et physiques des individus en fonction de « l’intelligence des données » est donc un mode de gouvernement inédit.
11 Voir à cet égard Michel Foucault, Les anormaux, Cours au Collège de France 1974-1975, Suil, 1999, en particulier le du 15 janvier 1975.
12 Voir Frédéric Streicher, « Différence et répétition chez Deleuze », Sciences Humaines. No spécial no 3, mai-juin 2005, Foucault, Derrida, deleuze : Pensées rebelles.
13 « Dans cette grande inquiétude autour de la manière de gouverner et dans la recherche sur les manières de gouverner, on repère une perpétuelle question qui serait : “comment ne pas être gouverné comme cela, par cela, au nom de ces principes-ci, en vue de tels objectifs et par le moyen de tels procédés, pas comme ça, pas pour ça, pas par eux” (…) Et je proposerais donc, comme toute première définition de la critique, cette caractérisation générale : l’art de n’être pas tellement gouverné. » (Michel Foucault, « Qu’est-ce que les Lumières ? », Dits et Écrits. Tome IV, texte no 339.)
14 Maurice Blanchot, « Le Rire des dieux », Nouvelle Revue française, juillet 1965, p. 103, cité par Gilles Deleuze in Logique du sens, Paris, Minuit, « Critique », 1969, p. 303.
15 Clément Rosset, L’invisible, Minuit, 2012, p. 79-80.
16 Camille de Toledo, « Ce qui est réel, ce qui est matériel,… »in. Camille de Toledo, AliochaImhoff, Kantuta Quiros, Les potentiels du temps, Manuella Éditions, 2016, p. 56, note 19 : « la spéculation financière est le contraire de la spéculation potentielle, car c’est celle qui réalise le moins de métamorphoses, qui transforme le moins les mondes, entretenant comme elle le fait la rente de ce qui est déjà là, et la dette de ce qui est déjà dû. Au contraire, la spéculation artistique, théorique ou politique charrie un plus grand coefficient de métamorphoses en ce qu’elle permet de modifier le régime d’impossibilités. La pensée potentielle est toujours un choix pour le plus grand coefficient de métamorphoses. »
17 Michel Foucault, « La pensée du dehors », 1966, Dits et écrits, I. 1954-1975 texte no 38.
18 Juliette Feyel, « Le corps hétérogène de Georges Bataille », Actes du colloque international Projections : des organes hors du corps (13-14 octobre 2006), http://www.epistemocritique.org/IMG/pdf/ProjectionsFeyel.pdf
19 La multiplication des « profils » qui nous sont assignés et leur « croisement » nous « individualise » en effet au point qu’il devienne impossible, à l’ère des données massives, de garantir l’anonymat : toute donnée, même non relative à une personne identifiée ou identifiable, est susceptible d’être croisée avec d’autres jusq’à permettre la réidentification de la personne « anonyme »dont elle « émane ».
20 Grégoire Chamayou, Judith Butler, « Vivre sa vie. Entretien avec Judith Butler », Contretemps, no 18, 2007, p. 113.
21 Pour une description de la gouvernementalité algorithmique comme gouvernement des/par les relations, nous nous permettons de renvoyer à Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, 2013, Vol. 1, No 177, p. 163-196.
22 Laurent De Sutter, Magic. Une métapysique du lien. PUF, 2015.
23 Jacques Derrida, Spectres de Marx, Galilée, 1993.
24 Pierre Macherey, « De Canguilhem à Canguilhem, en passant par Foucault », In : Georges Canguilhem, philosophes et historien des sciences, colloque 1990, Bibliothèque du Collège international de philosophie, éd. Albin-Michel, p. 286-294.
25 « La “santé”, que Canguilhem définissait comme une capacité normative du vivant, est tributaire des interdépendances dynamiques qui constituent l’écosystème dans lequel le corps s’individue. Et nul ne peut définir a priori les dépendances qui importeront dans l’avenir. Voilà ce que les théologiens néolibéraux ne parviennent pas à penser : que l’individu est un corps, que ce corps est légion et que son mode d’existence est celui du collectif s’individuant. » (Jeffrey Tallane, statut Facebook non publié)
26 Michel Foucault, Surveiller et punir, Gallimard, 1975.
27 L’ouverture du temps « ne doit rien avoir à voir avec le savoir. Ni donc avec l’ignorance. Cette ouverture doit préserver cette hétérogénéïté comme la seule chance d’un avenir »Jacques Derrida, Spectres de Marx, Gallilée, 1993.
28 Michel Foucault, Naîssance de la clinique, PUF, coll. Quadrige, (1re édition, 1963), 9e édition, 2015, p. 17-18.
29 Ibid., p. 11.
30 François Jacob, La logique du vivant, une histoire de l’hérédité, Gallimard, 1970, p. 321.
31 Pierre Macherey, « Idéologie : le mot, l’idée, la chose. Langue, discours, idéologie, sujet, sens : de Thomas Herbert à Michel Pêcheux », 17/01/2007, URL : http://stl.recherche.univ.lille3.fr/seminaires/philosophie/macherey/macherey20062007/macherey17012007.html
32 « Nous suggérons que l’idéologie “agit” ou “fonctionne” de telle sorte qu’elle “recrute” des sujets parmi les individus (elle les recrute tous), ou “transforme” les individus en sujets (elle les transforme tous) par cette opération très précise que nous appelons l’interpellation, qu’on peut se représenter sur le type même de la plus banale interpellation policière (ou non) de tous les jours : “Hé, vous, là-bas !” (note : L’interpellation, pratique quotidienne, soumise à un rituel précis, prend une forme tout à fait “spéciale” dans la pratique policière de l’interpellation, où il s’agit d’interpeller des “suspects”). – Si nous supposons que la scène théorique imaginée se passe dans la rue, l’individu interpellé se retourne. Par cette simple conversion physique de 180 degrés, il devient sujet. Pourquoi ? Parce qu’il a reconnu que l’interpellation s’adressait “bien” à lui, et que “c’était bien lui qui était interpellé” (et pas un autre). L’expérience montre que les télécommunications pratiques de l’interpellation sont telles que l’interpellation ne rate pratiquement jamais son homme : appel verbal ou coup de sifflet, l’interpellé reconnaît toujours que c’était bien lui qu’on interpellait. C’est tout de même un phénomène étrange, et qui ne s’explique pas seulement, malgré le grand nombre de ceux qui “ont quelque chose à se reprocher”, par le “sentiment de culpabilité”. – Naturellement, pour la commodité et la clarté de l’exposition de notre petit théâtre théorique, nous avons dû présenter les choses sous la forme d’une séquence, avec un avant et un après, donc sous la forme d’une succession temporelle. Il y a des individus qui se promènent. Quelque part (en général dans leur dos) retentit l’interpellation : “Hé, vous, là-bas !”. Un individu (à 90 % c’est toujours celui qui est visé) se retourne, croyant-soupçonnant-sachant qu’il s’agit de lui, donc reconnaissant que “c’est bien lui” qui est visé par l’interpellation. Mais dans la réalité les choses se passent sans aucune succession. C’est une seule et même chose que l’existence de l’idéologie et l’interpellation des individus en sujets. » (L. Althusser, « Idéologie et appareils idéologiques d’État (notes pour une recherche) », in Positions, éd. Sociales, 1976, p. 113-114.))
33 Nous nous permettons de renvoyer le lecteur à Antoinette Rouvroy, « Des données sans personne : le fétichisme de la donnée personnelle à l’épreuve de l’idéologie des Big Data », in Jacky Richard & Laurent Cytermann (dir.), Étude annuelle du Conseil d’État « Le numérique et les droits fondamentaux », La Documentation française, 2014.
34 À ce propos lire notamment Pierre Legendre, « Postface – Réactions au colloque », in. Emmanuel Dockes et Gilles Lhuillier, éd., Le corps et ses représentations, Litec, 2001.
35 Robert Musil, Der Mann ohne Eigenschaften, in. Gesammelte Werke, Rowohlt Verlag, 1978, p. 608, cité par Jacques Bouveresse, Robert Musil. L’homme probable, le sasard, la moyenne et l’escargot de l’histoire, L’éclat, 1993, p. 102-103.
36 Pierre Legendre, De la société comme texte. Linéaments d’une anthromologie dogmatique, Fayard, 2001.
37 Nous nous permettons, à cet égard, de renvoyer le lecteur à : Antoinette Rouvroy, «Pour une défense de l’éprouvant inopérationnabilité face à l’opérationnabilité sans épreuve du comportementalisme numérique», Dissensus, Revue de Philosophie politique de l’Université de Liège, 2001, No 4.
38 Nicolas Bourriaud, « Le paradigme esthétique », Chimères, n.21, Hiver 1994 : « L’écosophie guattarienne pose elle aussi la totalité de l’existence comme préalable à la production de subjectivité. Celle-ci y prend la place centrale que Marx assigne au travail et que Bataille donne à l’expérience intérieure, dans l’effort de recomposition individuel et collectif de la totalité perdue. »
39 « L’utopie n’est pas un bon concept : il y a plutôt une “fabulation” commune au peuple et à l’art. Il faudrait reprendre la notion bergsonnienne de fabulation pour lui donner un sens politique », disait Gilles Deleuze dans un entretien avec Toni Négri (Gilles Deleuze, « Le devenir révolutionaire et les créations politiques », entretien avec Toni Negri, Futur antérieur, n.1, 1990. URL : http://multitudes.samizdat.net/article.php3?id_article=495) Lire également Lire également Ronald Bogue, « Bergsonian Fabulation and the People to Come », in Deleuze’s Way. Essays in Transverse Ethics and Aesthetics, Ashgate, 2007, p. 91-106.
- Thème CLIL : 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
- ISBN : 978-2-406-07064-1
- EAN : 9782406070641
- ISSN : 2497-1650
- DOI : 10.15122/isbn.978-2-406-07064-1.p.0195
- Éditeur : Classiques Garnier
- Mise en ligne : 12/08/2017
- Périodicité : Semestrielle
- Langue : Français