Aller au contenu

Classiques Garnier

Big Data entre l’archive et le diagramme

  • Type de publication : Article de revue
  • Revue : Études digitales
    2016 – 2, n° 2
    . Le gouvernement des données
  • Auteur : Khatchatourov (Armen)
  • Résumé : Au sein des Big Data, nous distinguons deux tendances qui permettent de décrire les nouveaux « diagrammes » du pouvoir, les modes de gouvernementalité qui leur correspondent, ainsi que leurs relations complexes avec les savoirs. Cette analyse, convoquant le paradigme cybernétique, nous amène à formuler cette hypothèse : il en va désormais non pas simplement d’une nouvelle forme historique de la relation entre les savoirs et le pouvoir mais de l’auto-actualisation indéfinie de ce dernier.
  • Pages : 67 à 87
  • Revue : Études digitales
  • Thème CLIL : 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
  • EAN : 9782406070641
  • ISBN : 978-2-406-07064-1
  • ISSN : 2497-1650
  • DOI : 10.15122/isbn.978-2-406-07064-1.p.0067
  • Éditeur : Classiques Garnier
  • Mise en ligne : 12/08/2017
  • Périodicité : Semestrielle
  • Langue : Français
67

BIG DATA ENTRE LARCHIVE
ET LE DIAGRAMME

DE LA PRÉSUPPOSITION RÉCIPROQUE

On postule aujourdhui que nos savoirs dépendent de plus en plus des « données » obtenus à laide de Big Data. Lapproche critique de ce champ, dabord structurée par des enjeux épistémologiques, thématise la manière dont ce nouveau paradigme redéfinit la constitution des savoirs. Après une brève restitution de ce débat dans le but den dégager quelques éléments distinctifs et problématiques, nous allons, dans ce texte, tenter de le compléter par une approche dont laspiration est de dépasser les problèmes strictement épistémologiques pour sacheminer vers ceux de lexercice du pouvoir, en amont de la constitution des savoirs particuliers. Pour ce faire, nous tenterons de dégager le diagramme daujourdhui, dans le sens où ce terme est employé par Gilles Deleuze, à savoir une représentation, une exposition « des rapports de force qui constituent le pouvoir ».

Dans son livre consacré à la pensée de Michel Foucault, Deleuze fait la distinction entre larchive et le diagramme. Larchive est comprise comme le savoir constitué et le diagramme comme les rapports de forces qui sous-tendent la constitution de tel ou tel savoir. Inversement, tout pouvoir nécessite des savoirs constitués, sappuie sur eux : sans eux, il « resterait ponctuel, fluent, évanouissant, instable et ne pourrait ni se conserver ni se reproduire1 ». Mais le rapport entre les deux, sil est de présupposition réciproque, nest pas symétrique : il y a, selon Deleuze, un primat du pouvoir sur le savoir dans le sens où celui-ci rend tout savoir à la fois possible, à travers sa constitution, et problématique, en 68lui conférant un caractère provisoire. Soit une opération de recherche lexicologique sur un corpus par exemple : « si lon cherche à déterminer un corpus de phrases et de textes pour en extraire des énoncés, on ne peut le faire quen assignant les foyers de pouvoir (et de résistance) dont dépend ce corpus2 ».

La relation archive – diagramme semble à première vue analogue au schématisme kantien :

Le diagrammatisme de Foucault, cest-à-dire la présentation des purs rapports de forces ou lémission des pures singularités, est donc lanalogue du schématisme kantien : cest lui qui assure la relation doù le savoir découle, entre les deux formes irréductibles de spontanéité et de réceptivité3

Mais il ny a ici point de téléologie : là où, chez Kant, le scientifique devait invariablement faire comme si la constitution du savoir absolu était possible, Foucault prend non seulement la mesure du caractère fini de tout savoir constitué mais dépeint la situation où le processus de sa constitution est lui-même un produit provisoire de rapport de forces, comme lillustre par exemple la dépendance des savoirs médicaux ou pénitentiaires de ce diagramme particulier quest le panoptique. Ainsi, le pouvoir « produit du vrai comme problème4 », et sa relation à larchive se joue précisément dans lhistoricité des « régimes de vérité ».

Chaque époque, chaque formation historique, donne à voir ses propres diagrammes. On le sait, Foucault a consacré lessentiel de son travail à lanalyse de cette époque particulière où se jouait la conjonction, la confrontation, entre deux diagrammes : celle des disciplines et de lanatomo-politique dun côté, et celle de sécurité et de la biopolitique de lautre. Plus près de nous, le néolibéralisme5 est une formation nouvelle qui rejoue cette confrontation sous une forme de « société de contrôle » dont on trouve les premiers éléments analytiques chez Foucault lui-même, et dont les modalités concrètes sont encore à déterminer.

69

Si notre intuition est que le régime néolibéral lui-même est en train de subir des transformations profondes, nous nabordons pas ici cette question frontalement mais à travers une tentative den dégager les diagrammes nouveaux, au moins ceux qui nous semblent à lœuvre dans le domaine de Big Data. Et, comme nous essayerons de le montrer dans la conclusion, la particularité de ce domaine ne réside peut-être pas tant dans le passage vers un diagramme particulier et vers les savoirs particuliers qui lactualisent que dans le changement de type de rapport, de la nature même de la présupposition réciproque, qui unit larchive et le diagramme.

BIG DATA
ENTRE ENJEUX ÉPISTÉMOLOGIQUES ET SOCIÉTAUX

Quelle est la nouveauté, à lère de Big Data, dans les rapports entre le pouvoir et les savoirs ? Tentons den donner une première approche à travers une analyse dordre épistémologique.

Lémergence de Big Data correspond dabord à de nouveaux modes de récolte et de traitement des données, voire à un nouveau mode de rapport aux phénomènes décrits, que ces phénomènes relèvent des sciences de la nature ou des sciences humaines et sociales. Le domaine du Big Data bénéficie aujourdhui dune attention croissante et fait objet dinvestissements massifs tant scientifiques quindustriels. Cependant, après une première phase deuphorie, illustrée par larticle fondateur et sans doute volontairement polémique de Chris Anderson6, lheure est venue daborder le Big Data avec plus de recul, en examinant en détail aussi bien les prémisses que les conséquences de sa généralisation.

Le Big Data recouvre des réalités très différentes. Il est porteur de confusions terminologiques qui non seulement naident pas à la compréhension des enjeux adjacents mais, nous semble-t-il, alimentent des discours qui profitent de cette confusion. Ainsi, dans un souci de 70clarification conceptuelle, Francis Diebold7 distingue entre Big Data le terme, Big Data la discipline et Big Data le phénomène, acceptions auxquelles nous ajoutons Big Data le discours. Comme tout phénomène technique, il nest compréhensible quen conjonction avec le discours qui le porte ; comme nous le verrons tout à lheure, une analyse de ces discours semble nous rapprocher déjà des enjeux de pouvoir.

Pour caractériser le Big Data, on emploie souvent la métaphore des 4 V :

Le Volume (la grande quantité des données qui nécessite souvent des capacités de stockage importantes, voire le stockage reparti) ;

La Variété (la variété des formats et des sources, par exemple lorsquun traitement porte à la fois sur les fichiers audio et texte) ;

La Vitesse (le « temps réel » du traitement) ;

La Véracité (la mise en place des méthodes spécifiques pour gérer limprécision des données, leur intégrité, leur adéquation au phénomène étudié).

Sappuyant sur des techniques spécifiques, lanalyse de ces données donnerait lieu à la découverte des patterns et des corrélations qui ne sont pas présupposés ou même soupçonnés à lavance. Selon le « discours Big Data », nous passerions ainsi du mode de raisonnement déductif au mode inductif, mode qui ne sappuie pas sur des théories préalables et qui est alors présenté comme le plus neutre et objectif possible en suivant un argument de type « puisque les données nous le disent… ». On serait alors en présence dun nouveau paradigme sappuyant sur la capacité scientifique et technique de croisement des sources et de leur traitement. Dans cette nouvelle manière de voir le réel, on pourrait se passer des hypothèses à tester, on serait en mesure de procéder à la découverte du réel « tel quil est ». Somme toute, on serait en présence dun nouvel empirisme débarrassé de ses inconvénients puisque sappuyant sur des procédures techniques bien précises. Le Tableau 1 illustre ce changement supposé de paradigme.

71

Paradigm

Nature

Form

When

First

Experimental science

Empiricism ; describing natural phenomena

pre-Renaissance

Second

Theoretical science

Modeling and generalization

pre-computers

Third

Computational science

Simulation of complex phenomena

pre-Big Data

Fourth

Exploratory science

Data-intensive ; statistical exploration and data mining

Now

Tab. 1 – Lhypothèse du Big Data comme le 4e paradigme8.

Cependant, on est en droit de se demander si un tel discours ne pèche pas par un enthousiasme aveugle, voire ne cache pas dautres enjeux.

La critique épistémologique de Big Data se situe alors sur le terrain de ce que plusieurs travaux identifient comme le nouveau mode de génération des hypothèses. Là où les sciences davant le Big Data auraient procédé sur un mode déductif, elles seraient, à lheure actuelle, en train dexplorer le mode inductif. Ce postulat semble en lui-même hautement problématique ainsi que nous allons maintenant expliciter9.

Tout dabord, en quoi consiste la nouveauté de Big Data ? Lorsquon regarde de plus près, on se rend compte que la plupart des approches scientifiques sont en réalité anciennes. Presque tous les traits distinctifs de Big Data, tant au niveau des données que des méthodes, puisent leurs racines dans des approches qui datent au moins dune vingtaine dannées. Pour ne prendre que quelques exemples : la variété des formats est traitée depuis longtemps par les méthodes dites « sensor fusion » ; la présence de lapproche inductive a sa place dans la science depuis toujours comme 72le soulignait Charles Sanders Peirce il y a plus dun siècle ; la recherche « tirée par les données » nest pas nouvelle en soi puisque les Big Data daujourdhui se nourrissent des approches probabilistes existantes. Les seuls éléments qui échappent clairement à lenracinement ancien, nous y reviendrons, sont le volume en tant que tel et la question du passage de léchantillon fini à la population complète (n=all).

On le sait bien, comme lillustre par exemple lhistoire des sciences cognitives, que la mise en commun des approches différentes peut avoir des vertus propres, leur hybridation mutuelle conduisant à de nouvelles manières fructueuses daborder les questions anciennes. Néanmoins, il faut, à notre sens, nuancer ces formules chocs autour du changement de paradigme.

Ensuite, les données parlent-elles delles-mêmes ? Il y a bien un nouveau mode de générer les hypothèses, mais ces hypothèses restent guidées par les connaissances existantes et les présupposés des chercheurs. Les données et les résultats sont plus que jamais construits, que cela soit par le choix des données à récolter, le choix des modèles ou même le choix de tel ou tel logiciel de traitement.

On a alors limpression que la nouveauté de Big Data réside plutôt dans une combinaison spécifique des méthodes scientifiques et des enjeux épistémologiques : comment construit-on les modèles ? Quels agendas guident ces choix ? Mais plutôt que de sintéresser à la construction sociale de la science, telle que Bruno Latour par exemple la thématisée en proposant en particulier de remplacer le terme de « données » par celui d« obtenues10 », les discours Big Data semploient à passer sous silence cette construction, là où, paradoxalement, elle devrait être la plus apparente puisque toute action de récolte ou de traitement des données est potentiellement traçable et pourrait faire lobjet dune analyse dordre épistémologique.

On peut ici entrevoir larticulation des enjeux épistémologiques et des enjeux de pouvoir en prenant au sérieux Big Data le discours que nous évoquions tout à lheure. Par exemple, certains auteurs distinguent dans ce discours deux métaphores principales et solidaires qui décrivent toutes deux la supposée neutralité des données en les assimilant soit aux forces de la nature soit aux ressources à consommer : « Big Data 73is a force of nature to be controlled, an uniform mass », et « Big Data is nourishment / fuel to be consumed, new oil11 ». Cest en prônant la nouveauté des méthodes sans en faire une généalogie, cest en organisant la promotion de la maîtrise et de la richesse que le pouvoir établit limpératif pour toute action, y compris politique ou sociale, de passer par les données – et sétablit ainsi comme linstance qui en détermine la circulation. Or, si lon tient à poursuivre la métaphore des matières premières ou des forces de la nature pour décrire Big Data, cest moins du côté du pétrole que du côté de latome et de ses conséquences ambiguës quil faudrait sans doute chercher. Le risque encouru est que, derrière la fascination pour les données et les discours annonçant des changements épistémologiques, on fasse croire que les outils et les méthodologies sont neutres et que les données « parlent delles-mêmes ». Or, il ny a pas de données « brutes12 ». Les données sont plus que jamais construites selon les choix industriels et politiques qui orientent non seulement la recherche mais la société dans son ensemble, choix qui risquent alors dêtre passés sous silence.

Notre hypothèse est cependant que les enjeux de Big Data ne se résument ni à des problèmes strictement épistémologiques, si lon entend par là le mode de génération des hypothèses, ni à la présence évidente des discours « marketing », y compris politiques et scientifiques, qui chercheraient à mettre en avant la nouveauté supposée des méthodes en question. Il faut également, nous semble-t-il, aller au-delà de la critique même des métaphores des « forces de la nature » ou des « ressources naturelles » et, partant, au-delà dune certaine compréhension heideggérienne de la technique comme Arraisonnement (Gestell) – ou du moins tenter den décrire des formes nouvelles13. Pour ce faire, nous proposons de déceler dans le phénomène actuel de Big Data deux diagrammes, deux tendances en partie concurrentes, que nous appellerons lexhaustivité mémorielle et limmédiateté.

74

DEUX DIAGRAMMES DE BIG DATA

Le diagramme de lexhaustivité mémorielle :
Big Data Warehouse

Dans sa variante la plus connue et la plus ancienne, pour laquelle nous employons ici le terme de Big Data Warehouse (entrepôt de données), le Big Data consiste en une accumulation la plus exhaustive possible des données. Lexhaustivité concerne ici aussi bien la couverture dune population donnée (n=all) que la description, réelle ou fantasmée, de chaque individu14. À notre sens, ce mouvement est solidaire de limpératif de visibilité absolue, les discours sur la science et sur la société étant ici analogues. En effet, du côté de Big Data « scientifique », on prône laccès direct au réel à partir dun relevé exhaustif par les données pouvant être réalisé à la demande ; du côté de Big Data « financier », « aide à la décision » ou « surveillance », on aspire à décrire les individus de manière exhaustive en réduisant chacun deux à un jeu complet dattributs de plus en plus fins et, dans le cas particulier des individus humains, on procède à la détermination de lexistence individuelle à partir de ses traces. Dans ce mouvement conjoint, ces deux approches contribuent à un nouveau régime de visibilité qui consiste à transformer le réel en données et à le réduire par là même à ce qui peut être saisi « en données », rendant êtres et objets « à disposition ». Certes, la critique latourienne (qui portent sur la confusion entre les données et les obtenues) et heideggérienne (qui porte sur la réduction du réel au stock disponible et maîtrisé) sont ici plus que justifiées. De même, le phantasme que nous avons déjà évoqué, celui de disposer dun accès direct, sans intermédiaire dhypothèses ou de catégories préalables, est ici plus que critiquable. Mais il nous semble que lessentiel est ailleurs.

La question, beaucoup plus simple mais qui nous semble plus cruciale et qui nous rapproche du diagramme daujourdhui, est celle du régime des finalités selon lequel fonctionne le Big Data Warehouse. On peut en 75effet légitimement se demander quelles finalités guident cette récolte acharnée des données. Quest-ce que lon souhaite en faire ? Quelles méthodes sont à employer ?

Lexemple qui est ici sans doute le plus parlant est celui des données à caractère personnel, ce nerf de la guerre économique que les acteurs majeurs du domaine se livrent. Le concept de finalités de traitement apparaît dans les années 1970, lorsque le croisement des données des différentes bases de données gouvernementales risque de conduire à un déséquilibre des pouvoirs et de menacer les libertés individuelles. Ce concept correspond alors à linjonction de savoir à lavance la destination de la collecte et du traitement des données. Les données personnelles « sont collectées pour des finalités déterminées, explicites et légitimes et ne sont pas traitées ultérieurement de manière incompatible avec ces finalités15 ». Parallèlement et de manière liée, apparaissent deux autres concepts : celui des données à caractère personnel (données potentiellement identifiantes) et celui du consentement (comme linjonction de demander à lutilisateur son accord pour la collecte).

Ces trois pierres angulaires sont remises en question par le Big Data. En effet :

Pas de finalité préalable à la collecte et au traitement : on collecte tout ce que lon peut, tout dabord parce que les coûts de cette collecte sont de moins au moins élevés, et plus fondamentalement parce que les données peuvent servir à quelque chose plus tard, conformément au postulat épistémologique de recherche de corrélations « insoupçonnées » ;

Plus de distinction entre les données identifiantes et non-identifiantes : toutes les données sont potentiellement identifiantes, soit par la ré-identification dans les bases existantes, soit pas le croisement avec de nouvelles données collectées sans finalité préalable (cf. ci-dessus) ;

Pas de consentement, tout dabord parce que la collecte se fait, de fait, à linsu de lutilisateur, et plus fondamentalement parce quil est impossible de demander le consentement pour des finalités non-définies (cf. ci-dessus).

76

On assiste alors à une récolte de données guidée par un phantasme dexhaustivité qui se joue sur deux plans. Le premier est celui de la profondeur temporelle : le rapport au temps sassimile à une mémoire infinie qui peut en droit (si ce nest en fait, limité provisoirement par les contraintes techniques de stockage) aller indéfiniment dans le passé. Faut-il insister ici sur la durée de plus en plus grande de conservation des données à caractère personnel permise par les législations successives, sous couvert de lutte antiterroriste ? Le deuxième plan est celui de lextension : le rapport à la population change radicalement en passant de léchantillon représentatif à la couverture totale, illustrée pas la formule n = all16.

De cette absence de finalités, il convient de prendre la juste mesure. On pourrait dabord évoquer le fait que, dans la pratique quont aujourdhui les ingénieurs, il ne sagit pas tant daccomplir une finalité que lon se serait fixée à lavance que dêtre surpris par des retombées plus ou moins insoupçonnées, dans un jeu perpétuel de confrontation avec les algorithmes informatiques17. Si lon peut risquer cette formule, il ne sagit plus daspiration à la maîtrise mais à la surprise ; et sil sagit encore dune « mise en réserve », celle-ci réserve linsoupçonnable.

Plus fondamentalement, nen va-t-il pas dune conséquence prévisible de lépoque moderne, voire de son aboutissement ? Cest en effet le propre de la technique en général que dopérer le déplacement perpétuel des fins, déplacement qui ne peut quaboutir à la remise en question de lidée même de finalité préalable à une action quelle quelle soit. Comme le souligne Jean-Luc Nancy, « la technique et toute notre époque [] nous étalent une sorte dabsence de fin, daccomplissement, de but, de téléologie18 ». Le propre de Big Data Warehouse serait alors de porter cette 77absence à son paroxysme. Plus que de lArraisonnement heideggérien, il sagit ici dune remise en cause du régime même de finalités, régime selon lequel laction humaine est guidée.

Tel est, nous semble-t-il, le premier diagramme de Big Data : une exhaustivité mémorielle dans les deux sens dextension temporelle et de couverture de la population, sans finalité préétablie.

Le diagramme de limmédiateté : Big Data Stream

Le second diagramme semble être guidé par les contraintes de réactivité par rapport aux phénomènes traités et se voit imposer les délais de réponse dits « en temps réel ». Il puise ses racines dans data stream mining relativement ancien, puisque datant du début des années 2000. Lapproche change ici radicalement : on passe du paradigme « capturer – analyser » à lanalyse à même le flux de données. On parle dès lors de Big Data Stream (flux de données).

En langage informatique, le Big Data Stream soppose radicalement au Big Data Warehouse de la même manière que le stream processing soppose au batch processing : le traitement ne repose pas ici sur une certaine reproductibilité, sur une série dinstructions stable appliquée à des corpus de données finis et sur le travail par lots, mais sur lécoulement indéfini de données, où seuls les résultats de lanalyse sont éventuellement stockés, quand ils ne servent pas à leur tour dinput à dautres flux et dautres analyses19. Il va alors de soi que le phénomène analysé dépend de la grille danalyse de manière beaucoup plus intime que dans Big Data Warehouse où lon peut revenir à tout moment à larchive (que ce retour soit réel ou fantasmé)20.

La métaphore utilisée ici est celle de la recherche de lor, où lépistémologie et léconomie ne font plus quun : si la grille qui sert à « analyser » le flux est trop fine, trop grosse ou ne correspond pas à 78la forme de lor, on ne « trouve » pas ce que lon cherche, et on alloue alors les ressources humaines ou de calculs à dautres flux, à dautres data pipelines plus rentables.

The analogy here is that working in data streams is much like panning for gold. As the data stream passes by, analysis occurs in parallel that seeks to capture the relevant nuggets of information to best address specific questions or areas of concern21.

En dautres termes encore, dans Big Data Stream, la capacité danalyse est déportée auprès des capteurs, dont le rôle, désormais, nest plus de fournir un relevé étalonné des phénomènes, ni de « fabriquer » les phénomènes de la science mais, – interconnectés entre eux et composant ainsi lInternet des objets (ou plutôt, selon une expression désormais plus appropriée, Internet of Everything) –, de constituer le monde lui-même.

We expect to see everything of material significance on the planet get “sensor-tagged” and report its state or location in real time. This sensorization of the real world will lead to a “green field”22 of novel monitoring and control applications with high-volume and low-latency processing requirements23.

Il faut ici en prendre la mesure à laide des cas concrets. Prenons lexemple de capteur virtuel, ce paradigme opérationnel issu du domaine de « sensor fusion ». Le capteur virtuel est une définition algorithmique de la mise en correspondance déléments hétérogènes :

Virtual sensors abstract from implementation details of access to sensor data and correspond either to a data stream received directly from sensors or to a data stream derived from other virtual sensors. A virtual sensor can be any kind of data producer, for example, a real sensor, a wireless camera, a desktop computer, a cell phone, or any combination of virtual sensors. A virtual sensor may have any number of input data streams and produces exactly one output data stream based on the input data streams and arbitrary local processing24.

79

Ainsi, loutput de Big Data Stream est basé à la fois sur les événements « réels », sur les combinaisons de ces capteurs virtuels dont certaines entrées sont elles-mêmes des événements purement logiciels et sur les traitements algorithmiques pratiqués à même ces flux de données. Cet output produit ainsi des événements dits « composés » ou « dérivés ». Si lon se réfère par exemple à une des variantes de stream processing dite CEP, un événement « observé » correspond fondamentalement, non à la « cause » ou à linput, mais à la conséquence dun traitement algorithmique.

A special case of stream processing is complex event processing (CEP). CEP terminology refers to data items in input streams as raw events and to data items in output streams as composite (or derived) events. A CEP system uses patterns to inspect sequences of raw events and then generates a composite event for each match, for example, when a stock price first peaks and then dips below a threshold25.

[The] derived streams often do some kind of enrichment, say adding on new attributes not present in the original event. Derived streams require no particular handling. They can be computed using simple programs that directly consume from Kafka and write back derived results or they can be computed using a stream processing system. Regardless which route is taken the output stream is just another Kafka topic so the consumer of the data need not be concerned with the mechanism used to produce it26.

Bien entendu, il ne sagit pas ici de dénoncer un voile de données posé sur une réalité préalable mais de comprendre un mode de « dévoilement » du monde qui nest plus simplement celui de la maîtrise des forces de mise à disposition ou de commande. Ce traitement de données, qui a pour caractéristique dinjecter des procédures qui ne peuvent pas être qualifiées de simple analyse, fait advenir en temps réel des patterns dévénements. Le monde, sans profondeur bien quallant très loin dans la fouille des données, est ici celui de décisions immédiates et automatisées, basées sur la circulation rhizomatique de données ; celui de décisions pouvant servir à leur tour dinputs consécutifs dans dautres traitements, selon un jeu perpétuel dajustements des variables entre elles, dans le seul but, lui-même malléable, de prédire et de réguler de comportements.

80

Ainsi, le phénomène « obtenu » est un résultat de processus de contrôle : contrôle non dans le sens dun message dirigé de commande, mais dans le sens dont on retrouve lébauche, en 1942, dans lAnti-Aircarft Predictor de Norbert Wiener. Rappelons ici que le AA Predictor a été conçu pour prédire le comportement du pilote ennemi compris comme un servomécanisme, dont la trajectoire future pourrait être anticipée en fonction de ses automatismes propres, des contraintes mécaniques du vol, de la trajectoire passée dans une fenêtre de temps donnée, etc. Il nous semble que la vraie rupture dont le AA Predictor a été porteur nest pas tant dans la réduction conceptuelle du pilote humain à une machine à feedback, ni dans la considération du système pilote-avion comme un tout fonctionnel. La vraie rupture consiste dans le fait que le canonnier lui-même est alors conçu de la même manière que le pilote et devient l« environnement » pour ce dernier (ce qui, dans peu de temps, se confirmera factuellement par lavènement de léquipement embarqué de lavion et du drone de combat comportant la même capacité danalyse des patterns des comportements ennemis).

In the airground battle, it was a short step for Wiener and Bigelow to take the pilot-as-servomechanism directly over into the AA gunner-as-servomechanism and thence to the operation of the heart and proprioceptive senses27.

You start with an input-output approach which is suggested by the fact that you have no access to the pilot, you make this enormously successful prediction of where the plane would be, and then you apply that back to your own gunner. By now, the train of generalizations is rolling and you can see then how it gets generalized to other systems. [] The cybernetic model in some way grew up around an enemy that was symmetrical, which is why you could move easily from the enemy taking evasive action to you taking evasive action or to the gunner taking anti-evasive action, but it was all in some sense a symmetric piece28.

Réversibilité de lennemi et de lallié, réversibilité du phénomène analysé et de linstance danalyse, réversibilité de lenvironnement et de lindividu ; action sur les règles qui « décrivent » lenvironnement29 : tels 81sont les traits distinctifs de la conversion cybernétique. Ce paradigme correspond alors à un ajustement mutuel dont personne ne détient linitiative, paradigme dont la portée dépasse le problème de détection de patterns dans lexemple de lavion de combat.

Car il est à ce titre frappant de constater comment Foucault, sans doute très au fait des recherches de son époque dans le domaine de la cybernétique sans quil les mentionne explicitement, décrit le mode alors naissant de la gouvernementalité néolibérale et de lexercice du pouvoir qui lui correspond.

Ce qui apparaît, ce nest pas du tout lidéal ou le projet dune société exhaustivement disciplinaire dans laquelle le réseau légal, enserrant les individus, serait relayé et prolongé de lintérieur par des mécanismes, disons, normatifs. Ce nest pas non plus une société dans laquelle le mécanisme de la normalisation générale et de lexclusion du non-normalisable serait requis. On a au contraire, à lhorizon de cela, limage ou lidée ou le thème-programme dune société dans laquelle il y aurait optimisation des systèmes de différence, dans laquelle le champ serait laissé libre aux processus oscillatoires, dans laquelle il aurait une tolérance accordée aux individus et aux pratiques minoritaires, dans laquelle il y aurait une action non pas sur les joueurs du jeu, mais sur les règles de jeu, et enfin dans laquelle il y aurait une intervention qui ne serait pas du type de lassujettissement interne des individus, mais une intervention de type environnemental30.

On commence alors à percevoir la rencontre non fortuite entre la gouvernementalité néolibérale et le paradigme cybernétique dont le Big Data Stream constitue à ce jour un des exemples les plus aboutis. Car la leçon prémonitoire de AA Predictor (et aussi, plus près de nous, des drones de combat et des « signatures strikes ») consiste en ceci : la technique moderne et la guerre moderne (et toute technique est une technique de guerre – ou de gouvernement des conduites) ne normalisent pas mais cherchent à composer avec, à tirer avantage des comportements individuels, ceux du pilote et du canonnier ; la contrainte se fait par 82lenvironnement en jouant sur les règles qui le constituent. On est ainsi en présence dun ajustement perpétuel dans un jeu dont « les règles ne sont pas des décisions prises par quelquun pour les autres31 ».

Cest cette conjonction essentielle entre la technique, léconomie et la gouvernementalité, celle-là même qui a guidé lanalyse du dernier Foucault, que J.-L. Nancy désigne sous le terme décotechnie dans laquelle il décèle un moment charnière marquant la fin dune époque et louverture dune nouvelle. « Écotechnie signifie donc : lêtre se révèle économiquement ; et la distinction entre la production comme concept économique et la production comme concept ontologique na plus cours32. » Dans ces conditions, le concept même de finalité préalable est, une fois de plus, mis à mal. Comme le note Antoine Garapon,

Lordre spontané du marché [] est un ordre qui est sa propre finalité33.

De la même manière que la raison néolibérale ne poursuit aucune finalité, elle ne simpose aucun objectif temporel lointain. Le monde – ne parlons plus de système – doit être ouvert par définition, et tout projet trop éloigné risque de nous priver de ses richesses34.

Pour revenir plus spécifiquement au Big Data Stream, la réalité se dévoile ainsi, selon lexpression de Shoshana Zuboff, comme une nouvelle classe de marchandise : celle des comportements des êtres et des objets. Dans son travail récent, Zuboff évoque dabord les trois « marchandises fictives » de Polanyi : la vie devenue travail, la nature devenue biens immobiliers, léchange devenu monnaie. Elle y ajoute alors la quatrième transformation qui devient dominante au xxie siècle :

Now reality is subjugated to commodification and monetization and reborn as behavior. Data about the behaviors of bodies, minds, and things take their place in a universal real-time dynamic index of smart objects within an infinite global domain of wired things35

83

Cela veut dire exactement trois choses : que le produit du Big Data Stream est la réalité en tant que matière première du néolibéralisme et non en tant que « choses », « objets » ou « fonds » ; que cette réalité est le résultat de la naturalisation de comportements, eux-mêmes étant un produit dérivé des procédures complexes de traitement ; que plus ces comportements sont modulables, plus cette matière première est riche. On comprend alors mieux en quoi les « sociétés de contrôle » ne cherchent pas à uniformiser et à discipliner mais, au contraire, à moduler les comportements36 et à favoriser les différences individuelles : comme tout « data scientist » le sait, il y a peu à tirer des données provenant dune population uniforme.

Ainsi, dans Big Data Stream, les données et les algorithmes ne font quun au sein dune industrie des programmes qui produisent le réel37, à travers un output fondamentalement modulable et provisoire mais prédictible et opérationnel. La flexibilité à lœuvre dans Big Data Stream semble correspondre à lexigence fondamentale du paradigme cybernétique et du machine learning qui en est issu, celle de la recherche dune solution sub-optimale, mais qui « marche » – cest-à-dire qui répond à une recherche locale doptimisation par rapport à une récompense38. On quitte ici le paradigme de ladéquation qui a guidé à la fois la science et linterrogation philosophique de Descartes à Husserl, pour glisser vers celui de lajustement : ajustement des données en fonction de lalgorithme (filtrage, fréquence déchantillonnage), ajustement de lalgorithme en fonction des données (dit « concept drift »), ajustement de la précision du traitement en fonction des ressources de calcul disponibles, ajustement du phénomène obtenu en fonction de lensemble des outputs des « capteurs virtuels ».

84

Mais il ne faut pas sous-estimer la puissance de Big Data Stream : il ne sagit sans doute pas dune simple approche « opérationnelle » mais bien de la production des savoirs, selon un paradigme nouveau dont on commence seulement à apercevoir les rouages. Et il serait illusoire de penser quil restera cantonné aux seuls domaines « opérationnels » quils soient financiers ou publicitaires. Ces approches existent également dans les sciences de lenvironnement, sans parler du fait que, au sein des Humanités Digitales, bon nombre de travaux danalyse des interactions sociales sappuient sur les outils stream processing tels que ceux de Tweeter par exemple.

Le diagramme de Big Data Stream apparaît donc comme une exigence dimmédiateté, de réponse à même le flux et sa circulation autoréférentielle pour produire le réel dans le sens entendu ci-dessus. Ce diagramme perd la prétention à la capture, à la mémoire exhaustive39, tant dans son aspect temporel que dans son aspect de couverture de population. Pris dans le jeu perpétuel de lajustement réciproque, il garde cependant, en le rejouant à sa manière, laspect que nous avons désigné comme absence de finalités40.

85

LES DEVENIRS DE LARCHIVE

La qualification du phénomène Big Data comme exhaustivité mémorielle et immédiateté amène, à notre sens, à poser la question du pouvoir à de nouveaux frais. Chez Foucault, nous lavons déjà évoqué, le ressort interne des transformations historiques ne réside pas tant dans un diagramme particulier que dans la tension entre des diagrammes simultanés, lexemple le plus connu étant la tension entre les mécanismes disciplinaires et de sécurité41. De même, dans Big Data, cest finalement le contraste entre le Warehouse et le Stream qui fait apparaître la tension. Ce nœud de tension nest cependant pas tant dans la nouveauté technique ou scientifique en tant que telles – après tout un changement de paradigme peut être nécessaire ou bienvenu – mais dans la redistribution des rapports entre larchive et le diagramme que nous allons maintenant esquisser.

Nous lavons vu, le deuxième diagramme comporte des caractéristiques particulières. Le caractère autoréférentiel de la circulation des données quil donne à voir, la décentralisation de lanalyse vers les capteurs à la place de linstance centralisée, la modification permanente des règles danalyse et de production de lenvironnement, le parallélisme sans réserve avec les forces à lœuvre dans la gouvernementalité néolibérale : limage qui se dessine ainsi fait penser à lespace lisse de la circulation des forces, réifiées ici à travers les flux de données qui ne demandent quà être analysées. Avec le Big Data Stream, on pourrait alors être amené à envisager quelque chose comme un pur diagramme, un pur rapport de forces, qui devient visible et opérant en effaçant ou en lissant le strié de larchive.

En un certain sens, il en est en effet ainsi, et il se pourrait bien que, tendanciellement, larchive soit amenée à disparaître.

Quel est le rôle de larchive qui semble ici condamnée à disparaître ? Chez Deleuze, comme nous lavons évoqué, le savoir est un vis-à-vis du pouvoir. En revenant à leur présupposition réciproque, rappelons que si 86la constitution des savoirs présuppose et actualise les rapports de pouvoir, le pouvoir ne se donne à voir quà travers les savoirs quil sous-tend. En évoquant la société « disciplinaire », Deleuze utilise la métaphore de la taupe, image du pouvoir qui ne voit pas mais fait voir : la taupe ne se reconnaît quà travers le réseau de ses galeries, des savoirs stratifiés que sa circulation produit et rend visibles. Mais si la taupe se reconnaît à travers ce réseau, cest aussi lui qui la rend visible. Larchive est alors ce qui rend possible un discours, une énonciation sur les rapports de pouvoir à lœuvre, ce qui les met au jour. Qui plus est, et cest en cela peut-être que lon peut prendre une certaine distance avec Deleuze, on ne modifie la circulation de la taupe quen modifiant les strates, larchive elle-même. Cest larchive qui permet un recul, une prise de position critique et une prise sur le pouvoir. En dautres mots encore, si le diagramme est une représentation qui rend visibles les forces et les rapports de pouvoirs, les conditions de possibilité dune prise sur les forces qui y circulent résident dans larchive, et ceci en raison même de leur présupposition réciproque.

En poursuivant lhypothèse du pur diagramme dans Big Data Stream, ces conditions de possibilité sont-elles encore réunies ? La tension entre le Stream et le Warehouse ne fait-elle pas apparaître que, paradoxalement, cest du côté de ce dernier que la place existe peut-être encore pour une constitution de larchive, un temps de suspension, un recul critique nécessaire, une prise sur le pouvoir ? La nouveauté, dont cette tension est le vecteur, consisterait alors dans la dissolution progressive de larchive au profit dun pur rapport de forces immédiatement visible et opérant.

Mais, en un autre sens, en revenant plus près de la conception deleuzienne du rôle structurel de la présupposition réciproque, le pur diagramme sans larchive nest pas concevable. Et il ne faut pas sy tromper, cest bien du savoir (certes sur un mode nouveau), du strié et donc de larchive qui est produit par le Big Data Stream. Seulement, cette archive est dans un rapport nouveau au diagramme, un rapport qui nest plus de lordre dun vis-à-vis mais dune simple soumission. Nous sommes alors dans une situation nouvelle dans laquelle le diagramme prend le pas sur larchive : non dans le sens où cette dernière disparaît, mais dans le sens où le pouvoir nen dépend plus, où il peut désormais « se conserver et se reproduire42 » sans être actualisé par les savoirs. Ainsi, 87le diagramme gagne ici en invisibilité, en exposant lindéchiffrabilité de la circulation des données, lautonomisation par rapport à larchive, lauto-actualisation indéfinie43.

Pour conclure, la question du pouvoir pose de toute évidence celle du contre-pouvoir, de la résistance. En résumant ici de manière excessivement schématique, il nous semble que Deleuze et Guattari actent le passage de la résistance centralisée, arme contre les mécanismes disciplinaires eux-mêmes centralisés, aux « luttes transversales » ou « moléculaires ». Ils inaugurent ainsi toute une lignée de pensée et de penseurs qui va élaborer deux variantes de ces nouvelles formes de résistance. Pour employer ici les termes de Deleuze lui-même, celles-ci peuvent prendre la forme des micropolitiques qui permettraient dagir à la marge en échappant aux circuits principaux de pouvoir ou en les déstabilisant, ou bien la forme de « vacuoles de non-communication » qui permettraient des temps de suspension et de recul nécessaires. La question se pose désormais de savoir si lune ou lautre de ces variantes possède une « force » suffisante au sein du diagramme de Big Data Stream, où tous les circuits semblent investis par le pouvoir, où la suspension devient de plus en plus difficile et où le recul critique est remis en cause par la relation nouvelle avec larchive. En dautres termes encore, peut-on penser des résistances en dehors du paradigme de larchive ?

Armen Khatchatourov

Télécom École de Management

IMT – Institut Mines-Télécom

1 Gilles Deleuze, Foucault – Le Pouvoir, Cours 13, 1986 <http://www2.univ-paris8.fr/deleuze/article.php3?id_article=453>.

2 Gilles Deleuze, Foucault (Les Éditions de Minuit, 1986).

3 Deleuze, Foucault.

4 Deleuze, Foucault.

5 Il faut préciser dès maintenant que nous donnons à ce terme le sens précis quil a chez Foucault et non ses multiples sens courants, que le « sens courant » soit entendu dans son sens initial de la deuxième moitié du xixe, ou dans le sens de la réaction anti-keynésienne des années 1980.

6 Chris Anderson, The End of Theory : The Data Deluge Makes the Scientific Method Obsolete, Wired, 2008, p. 1–2 <http://dx.doi.org/10.1016/j.ecolmodel.2009.09.008>. Paru également dans Edge – The Third Culture.

7 Francis Diebold, A Personal Perspective on the Origin(s) and Development of Big Data : The Phenomenon, the Term, and the Discipline, 2012.

8 R. Kitchin, Big Data, New Epistemologies and Paradigm Shifts, Big Data & Society, 1.1 (2014) <http://dx.doi.org/10.1177/2053951714528481>.

9 Des travaux critiques allant dans ce sens sont de plus en plus nombreux. On consultera notamment à cet effet : Raw Data Is an Oxymoron, ed. by Lisa Gitelman (MIT Press, 2013), le numéro spécial de First Monday Making Data — Big Data and beyond (First Monday, vol. 18, number 10, 2013), xix., le numéro spécial de International Journal of Communication Critiquing Big Data : Politics, Ethics, Epistemology | Special Section (International Journal of Communication, Vol. 8, 2014), ainsi que Antony Bryant and Uzma Raja, In the Realm of Big Data …, First Monday, 19.2 (2014) <http://dx.doi.org/10.5210/fm.v19i2.4991>et Kitchin, op. cit.

10 Bruno Latour, Lespoir De Pandore : Pour Une Version Réaliste De Lactivité Scientifique (Paris : La Découverte, 2001).

11 Cornelius Puschmann and Jean Burgess, Metaphors of Big Data, International Journal of Communication, 8 (2014), 1690–1709.

12 Raw Data Is an Oxymoron, ed. by Lisa Gitelman (MIT Press, 2013)

13 Il est en effet frappant de voir que lanalyse critique de Big Data le discours que nous avons évoqué reproduit le versant le plus connu de la critique heideggérienne de la technique moderne : le Rhin est à la fois maîtrisé, emprisonné et fournit de lénergie disponible. Or, avec Big Data il ne sagit plus simplement de cela. Cf. Martin Heidegger, La Question de La Technique, in Essais et Conférences (Paris : Gallimard, 1993, 1954).

14 Les termes de « population » et d« individu » sont ici employés dans le sens que la statistique leur donne.

15 Loi Informatique et Libertés (Loi no 78-17 du 6 janv. 1978 relative à linformatique, aux fichiers et aux libertés : JO, 7 janv. 1978).

16 Cest peut-être là la radicalisation et la fin de la biopolitique à laquelle Foucault assigne encore la fonction de gouverner, non pas les individus ou les corps, mais la vie, la population prise dans sa durée et les événements aléatoires qui sy produisent. Or, la vie elle-même est de plus en plus comprise comme ce qui se révèle dans les données, et la population comme population exhaustive. Dès lors, sagit-il encore de la vie-bios, ou de la vie-zôè, « déjà devenue tekhnè » ? (Jean-Luc Nancy, Note Sur Le Terme de « Biopolitique », in La Création Du Monde Ou La Mondialisation (Galilée, 2002) p. 140). Cest peut-être là une des différences qui séparent la « biopolitique » libérale de Foucault de notre néolibéralisme tardif, du moins dans son aspect daspiration à lexhaustivité.

17 Jean-Pierre Dupuy, Le Problème Théologico-Scientifique et La Responsabilité de La Science, Le Débat, 2004, 182.

18 Jean-Luc Nancy, « Techniques Du Présent », Entretien Avec Benoît Goetz, Le Portique, 3 (1999).

19 « Stream Processing Engines (SPEs) are specifically designed to deal with streaming data [] SPEs perform SQL-style processing on the incoming messages as they fly by, without necessarily storing them. Clearly, to store state when necessary, one can use a conventional SQL database embedded in the system for efficiency. SPEs use specialized primitives and constructs (e.g., time-windows) to express stream-oriented processing logic. » (Michael Stonebraker, Uǧur Çetintemel and Stan Zdonik, The 8 Requirements of Real-Time Stream Processing, ACM SIGMOD Record, 34.4 (2005), 42–47 <http://dx.doi.org/10.1145/1107499.1107504>.)

20 « [] as Heraclitus 2.0 might say, you cannot step twice into the same data stream » P. Dourish, Algorithms and Their Others : Algorithmic Culture in Context, Big Data & Society, 3.2 (2016) <http://dx.doi.org/10.1177/2053951716665128>.

21 Rob Chimsky, Diving into Big Data : Data Lakes vs. Data Streams, Siliconagle, 2014 <http://siliconangle.com/blog/2014/04/17/diving-into-big-data-data-lakes-vs-data-streams/>.

22 Lexpression « green field » est ici manifestement à comprendre dans son acception de la langue des affaires : un nouveau projet, une nouvelle construction sur un champ non-défriché, une création ex nihilo.

23 Stonebraker, Çetintemel and Zdonik, op. cit.

24 Karl Aberer, Manfred Hauswirth and Ali Salehi, Infrastructure for Data Processing in Large-Scale Interconnected Sensor Networks, in 2007 International Conference on Mobile Data Management (Conference and Custom Publishing, 2007), p. 198–205 <http://dx.doi.org/10.1109/MDM.2007.36>.

25 M. Hirzel and others, IBM Streams Processing Language : Analyzing Big Data in Motion, IBM Journal of Research and Development, 57.3 (2013), 7:1-7 :11 <http://dx.doi.org/10.1147/JRD.2013.2243535>.

26 Jey Kreps, Putting Apache Kafka To Use : A Practical Guide to Building a Stream Data Platform (Part 2), Confluent, 2015 <http://www.confluent.io/blog/stream-data-platform-2/>. Kafka est le nom du logiciel open source pour le stream processing, utilisé notamment par LinkedIn, Netflix, Spotity et Uber. Nous soulignons.

27 Peter Galison, The Ontology of the Enemy : Norbert Wiener and the Cybernetic Vision, Critical Inquiry, 21.1 (1994), 228 <http://dx.doi.org/10.1086/448747> p. 264.

28 Peter Galison and Sina Najafi, The Ontology of the Enemy : An Interview with Peter Galison, Cabinet Magazine, 2003.

29 Nous ne développons pas ici ce point, mais il semble évident que les règles qui décrivent et constituent lenvironnement pour le canonnier de AA Predictor ne relèvent pas simplement de la « physique » des processus mais sont réifiées par la machine ou, pour employer des termes plus contemporains, par le « machine learning ». Comme le note Galison : This self-correction is exactly what Wieners machines did. Indeed, in every piece of his writing on cybernetics, from the first technical exposition of the AA predictor before Pearl Harbor up through his essays of the 1960s on science and society, Wiener put feedback in the foreground, returning again and again to the torpedo, the guided missile, and his antiaircraft director. Moreover, even in the predictor both the performance and the rules governing performance were corrected « in the course of its functioning. » (Galison. op. cit., p. 258)

30 Foucault, op. cit., p. 265 ; nous soulignons.

31 Comme le note Foucault à propos de léconomie néolibérale, léconomie doit être un jeu, « un ensemble dactivités réglées [] mais dans lesquelles les règles ne sont pas des décisions qui sont prises par quelquun pour les autres. Cest un ensemble de règles qui détermine de quelle manière chacun doit jouer un jeu dont personne, à la limite, ne connaît lissue. » (Foucault, op. cit., p. 178)

32 Frédéric Neyrat, Ici Le Monde, Actuel Marx En Ligne, 2002. Le terme de production fait ici manifestement référence au « pro-duire » heideggerien.

33 Antoine Garapon, La Raison Du Moindre État : Le Néolibéralisme et La Justice (Odile Jacob, 2010), p. 25.

34 Garapon, op. cit., p. 39.

35 Shoshana Zuboff, Big Other : Surveillance Capitalism and the Prospects of an Information Civilization, Journal of Information Technology, 2015.

36 Le concept de modulation, thématisé par Deleuze, nous semble plus à même de décrire cet état de fait de « réalité modulée » que ne le fait le concept de contrôle (y compris chez Deleuze lui-même), trop sujet à la confusion avec le contrôle dans le sens plus trivial du terme, exercé par les mécanismes dits disciplinaires et sécuritaires de Foucault.

37 Nous ne développons pas ici les différences fondamentales entre les données, les algorithmes, les programmes, le code et lautomatisation pour nous en tenir à léquation bien connue « algorithms + data structures = programs ». Cf. à ce sujet Dourish.

38 « Optimisation / reward » correspond à lapproche dominante dans lapprentissage par renforcement, au sein de machine learning. Il faut ici la mettre en parallèle avec la forme daction environnementale chez Foucault, décrite comme laction de modification des règles du jeu, du rapport entre les gains et les pertes possibles.

39 Du point de vue des modèles sous-jacents, la fenêtre temporelle prise en compte par le traitement doit être dune certaine durée optimale, mais en aucun cas infinie. Ainsi, dans les modèles Markoviens utilisés pour les traitements dits en temps réel, on remonte à n pas en arrière. La raison pour laquelle le n doit être fini nest pas simplement celle, technique, de puissance finie de calcul, mais celle, conceptuelle, de la prédictibilité du comportement futur à partir de létat ou dun ensemble des états proches du présent.

40 Une approche supplémentaire et plus récente (à notre connaissance à partir de 2012), dite de Data Lake (lac de données), doit également être évoquée. Deux grands axes dévolution peuvent être isolées dans lhistoire non encore écrite de Big Data : vers laugmentation de la variété des données traitées et de la vitesse de traitement. La tendance à la variété, en un certain sens, reflète et accentue lexigence de lexhaustivité mémorielle dont nous avons parlé. En effet, pour augmenter la performance analytique, les données non-structurées ou poly-structurées sont capturées et stockées directement sous le format natif dans les Data Lakes. : « Data lakes operate [] with a deluge of information being diverted into a large repository where it can be held for a long period of time until it is needed. The lakes are constantly fed by new water flowing into the lake, and in fact, they are dependent on the constant flow of water to keep the environment vibrant otherwise the lake could stagnate. » (Chimsky, op. cit.). Ce souci dassurer le flux constant, de ne pas laisser les données stagner et devenir obsolètes reflète aussi, à létat naissant, lexigence de la rapidité de traitement. Mais Data Lake offre une approche encore trop statique et diffère de Data Stream sur des points essentiels : « Analysis using data streams is a fundamentally different approach than data lakes. Rather than diverting the flow to store and then analyze, with streams, analysis occurs as the information is flowing in real- or near-real time. » (Chimsky, op. cit.) – Ainsi, Data Lake présente une variante intermédiaire entre le Warehouse et le Stream (modulo le problème de la structuration des données qui dépasse le cadre de cet article).

41 Cf. note 5 ci-dessus.

42 Cf. la note 1 ci-dessus.

43 Comme on le sait, Deleuze conclut son Post-scriptum en utilisant la métaphore du serpent et de la circulation indéfinie, et en opposant le serpent, image des sociétés de contrôle, à la taupe des disciplines : « Les anneaux dun serpent sont encore plus compliqués que les trous dune taupinière ». Gilles Deleuze, Post-Scriptum Sur Les Sociétés de Contrôle, in Pourparlers 1972-1990 (Les éditions de Minuit, 1990).