Le gouvernement des données ou le triomphe de l’univocité
- Type de publication : Article de revue
- Revue : Études digitales
2016 – 2, n° 2. Le gouvernement des données - Auteur : Rappin (Baptiste)
- Pages : 51 à 65
- Revue : Études digitales
LE GOUVERNEMENT DES DONNÉES
OU LE TRIOMPHE DE L’UNIVOCITÉ
L’algorithme, le projet d’une langue universelle, c’est la révolte contre le langage donné. On ne veut pas dépendre de ses confusions, on veut le refaire à la mesure de la vérité, le redéfinir selon la pensée de Dieu, recommencer à zéro l’histoire de la parole, ou plutôt arracher la parole à l’histoire1.
Gouverner par les nombres2, Gouvernementalité algorithmique3, Vie algorithmique et raison numérique4, Quand le monde s’est fait nombre5. Autant de titres récents, aussi bien d’ouvrages que d’articles, qui témoignent de l’importance du chiffre dans la conduite des hommes à l’époque de la planétarisation. Si la tradition pythagoricienne, à laquelle on rattache la première utilisation du mot « philosophe », fondait l’unité du cosmos sur des rapports de nombres, en d’autres termes sur l’égalité géométrique ou encore sur l’analogie, force est pourtant de constater que la vérité mathématique demeurait fermement ancrée dans le Ciel car le monde humain, sublunaire, se caractérisait par la contingence de l’action et l’imperfection de sa nature. C’est la raison pour laquelle le gouvernement des données, 52par les données, requiert comme sa condition ontologique la suppression de la distinction entre le Ciel et la Terre et la négation du départ entre l’invisible et le visible, opérations d’unification et d’homogénéisation rondement menées par la mécanique moderne qui se saisit de l’univers infini en reléguant le monde clos dans un passé à jamais refermé6. Puisque le haut et le bas sont en fin de compte tissés de la même étoffe, rien n’interdit désormais au scientifique, fût-il celui du droit ou de la société, d’appliquer à l’immanence les principes et les méthodes réservés aux sphères célestes : raisonnement déductif, comme Beccaria dans le domaine juridique, et appréhension mathématique des phénomènes sociaux et politiques, comme Sir William Petty et Jeremy Bentham avec l’arithmétique politique, ou encore Adolphe Quételet pour la définition de l’homme moyen et normal. Le divorce est alors consommé entre la science et le sens, entre la vérité et la perception. L’empirisme des anciens et des modernes n’a plus guère de commun que le nom, car celui-ci est fait d’expérimentations (experimentum) et d’arraisonnement méthodique, tandis que celui-là se trouve tout entier orienté vers l’expérience (experientia) et la contemplation (qui n’est autre que l’expérience de la vue ramenée à sa dimension noétique).
Mais Olivier Rey, dès l’entame de sa récente, exhaustive et brillante histoire de la statistique nous met très justement en garde contre une assimilation par trop hâtive, propre à l’ère de la digitalisation, qui conduirait à la confusion de la quantification et de la numérisation7 : alors que cette dernière renvoie à une symbolisation arbitraire et binaire du langage (le 0 et le 1 auraient pu être des A et des B, des < et des >, etc.), la première désigne bien l’empire croissant et aujourd’hui hégémonique du nombre jusqu’à ce point de « simulacre », ou d’« hyperréalité » dirait Jean Baudrillard, qui voit l’indicateur se substituer à la réalité. Ainsi les demandeurs d’emploi disparaissent-ils derrière les courbes et les entrepreneurs se réduisent-ils à leurs documents comptables ; et l’on sait bien que les dirigeants contemporains braquent leur regard angoissé sur le célèbre carré magique de Nicholas Kaldor dont la croissance, la stabilité des prix, l’emploi et l’équilibre extérieur forment les sommets ; et l’on prévoit enfin assez aisément que les campagnes électorales qui s’annoncent ressembleront à s’y méprendre aux précédentes, 53se résumant à des batailles de chiffres et de « bilans » sans que le statut et la construction des indicateurs ne soient à aucun moment évoqués.
Pourtant, une telle prolifération des statistiques ne saurait guère surprendre et il s’avère bien expédient de saisir son rôle avant de crier précipitamment haro sur l’aliénation et la dépossession qui peuvent en découler. Dans les pas de Ferdinand Tönnies, Olivier Rey organise son raisonnement autour de la polarité communauté-société : et si la première affirme son identité, sur un mode holiste, comme une totalité organique, la seconde peine à conférer une unité à ce qui n’est plus que poussière d’individus et d’atomes sociaux. La statistique joue précisément cette fonction d’agrégation des comportements et renvoie une image cohérente à un ensemble émietté. Plutôt que de retirer à l’individu ce qui fait sa singularité et de dissoudre ses caractères propres dans la masse, elle lui fournit bien plutôt des points de repère que les révolutions politique et industrielle lui avaient précédemment ôtés.
Les histoires de la quantification existent déjà et notre effort ne vise aucunement à les remettre en cause8. Il consiste plutôt à mettre en évidence le changement de statut de la norme qui s’opère dans le passage de la gouvernance statistique à la gouvernance algorithmique ; cette observation conduit alors à contextualiser et à préciser la distinction opérée par Olivier Rey entre quantification et numérisation, et à voir dans la seconde la condition de possibilité ontologique de la première à l’heure de la digitalisation. Si dans l’absolu l’histoire des statistiques est bien indépendante de la révolution logique moderne, le traitement informatisé des données, quant à lui, ne saurait faire l’économie d’une refonte préalable du langage9. Plus précisément, le gouvernement des données, s’il constitue un enjeu politique majeur, se révèle également être le lieu d’un affrontement métaphysique décisif : celui qui voit le triomphe péremptoire de l’univocité face à l’analogie.
54L’on doit à Adolphe Quételet, mathématicien et statisticien du xixe siècle, la célèbre théorie de l’homme moyen qui procède du passage de la moyenne descriptive à la norme prescriptive. L’auteur assure le départ entre deux types de moyennes. La moyenne arithmétique correspond à la somme divisée, par le nombre de termes, de choses différentes : imaginons les joueurs titulaires de l’équipe de France dont je mesure la taille avant de diviser le total par onze ; je risque fort de produire un résultat qui ne correspond à aucun des joueurs. La moyenne objective ne tombe pas dans ce travers car elle est la moyenne des mesures d’une même chose. Quételet prend l’exemple d’une statue dont les multiples mesures offriront certes un éventail de tailles différentes, mais avec des écarts à la moyenne qui prennent la forme d’une loi de probabilité en forme de courbe de Gauss10. Tout le propos du statisticien est alors de rapprocher les deux types de moyenne et de montrer qu’une série de mesures portant sur des individus distincts présente en réalité la même répartition que dans le cas de mesures portant sur un individu unique. En fin de compte, la moyenne arithmétique est aussi objective, et la démonstration mathématique de cette équivalence assure la rationalité de l’homme moyen qui, certes, est bien fictif mais tout de même doté d’un contenu. Par conséquent, les écarts, qui initialement représentaient des singularités individuelles, se voient réinterprétés comme des variations accidentelles et non significatives. Plus encore, l’individu cesse d’être le foyer de sa propre signification et reçoit une identité originale de la nouvelle référence qu’est devenu l’homme moyen et fictif. Raisonnant à partir des caractéristiques physiques, Quételet n’hésite cependant pas à donner une extension générale à sa découverte de l’homme moyen : celui-ci est aussi bien l’homme social que le malade ; dans ce dernier cas, il est alors « impossible de juger de l’état d’un individu sans le rapporter à celui d’un autre être fictif, qu’on regarde comme étant à l’état normal11 ». Dans le premier cas, quand il construit l’homme moyen, Quételet instaure une nouvelle normativité à l’origine de la construction d’un objet, « la chose sociale », qui devra faire l’objet d’une science – la sociologie – considérant l’individu sous le seul angle de son écart aux normes de la société ; de 55même, tout patient doit entrer dans le jeu d’une comparaison avec la construction statistique et expérimentale de la norme de la santé.
Une telle conception de la norme pave la voie à un gouvernement statistique normatif qui considère toute variation comme un défaut à gommer ou un fossé à combler : et l’on mettra en œuvre des mesures de réduction des écarts visant à ramener les brebis égarées dans le troupeau. Il convient alors de noter que la captation, le traitement, l’analyse et le maniement de données qui atteignent aujourd’hui des volumes sans précédent, ce que l’expression devenue courante de Big Data recouvre, remet profondément en cause ce mode de gouvernementalité. Ce dernier, comme l’écrivent Antoinette Rouvroy et Thomas Berns, désigne en effet « un certain type de rationalité (a) normative ou (a)politique reposant sur la récolte, l’agrégation et l’analyse automatisée de données en quantité massive de manière à modéliser, anticiper et affecter par avance les comportements possibles12 ». Les auteurs poursuivent en soulignant les déplacements opérés entre le gouvernement statistique et la gouvernance algorithmique : l’apparente individualisation d’une part, puis la participation voire l’accord et même l’adhésion de l’individu à la constitution de son profil d’autre part. Plus encore, la gouvernementalité algorithmique s’actualise en temps réel car elle ingurgite immédiatement toute nouvelle donnée, la mettant en correspondance avec d’anciennes informations pour proposer de nouvelles corrélations, plastiques, mobiles, et modelables à souhait : dans un tel modèle, il n’est plus fait référence à une instance surplombante ; au contraire, la norme est immanente au calcul de telle sorte qu’elle évolue en même temps que lui et ne laisse plus aucune place à l’écart qui se trouve automatiquement et instantanément avalé et intégré par l’algorithme. La norme en vient à épuiser la totalité du réel, et aucun possible ne saurait résister à son actualisation.
C’est la raison pour laquelle Éric Sadin est parfaitement justifié à décrire l’omniprésence des boucles qui captent les individus : « Tout être se situe dorénavant au sein d’une boucle, engendrant des myriades de codes et recevant des informations de tous ordres qui lui sont adressées en vue de répondre à ses plus grands intérêts ou conforts supposés13 ». Il 56est encore plus intéressant de constater que l’auteur relie pertinemment ces phénomènes de régulation et d’autorégulation à la cybernétique et à la notion de feedback : « C’est la notion cybernétique de feedback qui emporte avec elle l’ensemble de notre condition, situant le cadre général de l’expérience au sein de mécanismes immédiatement rétroactifs […]14 ». Nous voilà parvenus au fondement philosophique et historique du gouvernement des données : la cybernétique est en effet la science qui, au mitan du xxe siècle, thématisa la boucle de rétroaction comme schème général d’interprétation du monde en opérant les noces des deux concepts scientifiques d’information et d’organisation.
Commençons par cette dernière. François Jacob, dans La logique du vivant, fait observer que le concept d’organisation apparaît en biologie à la charnière des xviiie et xixe siècles et remplace la structure visible comme grille d’analyse du vivant : finies les taxinomies, place à l’étude du fonctionnement ! La lecture de la Philosophie zoologique de Lamarck, publiée en 1809, le confirme puisqu’on y observe l’omniprésence du terme pour désigner ce que Claude Bernard, dans l’Introduction à la médecine expérimentale de 1865 appellera « milieu intérieur », et Walter Cannon en 1932 dans Wisdom of the body « homéostasie » : à savoir la régulation des éléments internes au système qui permet à ce dernier de conserver son équilibre malgré les contraintes extérieures. Notons au passage l’extension de ce concept sous la forme de celui de « réseau » dans la philosophie de Saint Simon qui bâtit son système à partir de la distinction lamarckienne des corps bruts, caractérisés par la prédominance des solides, et des corps organisés, marqués par l’hégémonie des fluides. L’organisation n’est donc pas un concept vraiment neuf quand se tinrent les conférences Macy15 dans les années 1940.
Le tour de force de la cybernétique fut en réalité d’articuler à l’organisation une seconde notion scientifique, celle d’information. À suivre Jérôme Segal, auteur d’une monumentale Histoire de la notion scientifique d’information, Le Zéro et le Un, la scientificité du concept d’information se forgerait dans la première partie du xxe siècle au confluent de trois disciplines :
57–La physique : ce sont ici principalement les travaux sur la cinétique des gaz (Szilard propose une nouvelle interprétation du démon de Maxwell en 1925) et en mécanique quantique (John von Neumann) ;
–La statistique : redéfinie par Fischer dans les années 1920 comme l’extraction d’information d’une masse de données ;
–Les télécommunications : avec les travaux sur les méthodes de codage menés au sein de la Bell Telephone Company.
L’entropie est l’opérateur conceptuel qui réalise la liaison entre l’organisation et l’information. Écoutons Wiener en 1948 : « La notion de quantité d’information se rattache très naturellement à une notion classique en mécanique statistique : celle d’entropie. Tout comme la quantité d’information dans un système est la mesure de son degré d’organisation, l’entropie d’un système est la mesure de son degré de désorganisation ; l’un est simplement le négatif de l’autre16 ». L’organisation, parce qu’elle contient l’information adéquate, résiste à la tendance générale de l’univers, à savoir la désagrégation et l’homogénéisation. En d’autres termes, l’organisation est une exception tant au niveau statistique qu’ontologique. Cela signifie que toute forme de gouvernementalité cybernétique, que soit celle des données ou encore celle que l’on nomme « management17 », constitue un ensemble de techniques de maintien de l’état d’exception18. Ainsi, l’on pourra affirmer du management qu’il est un ensemble de dispositifs propres au gouvernement de l’exception permanente, d’où la centralité des thèmes de l’adaptation, de la flexibilité, de l’employabilité, du changement permanent, de l’amélioration continue, de l’apprentissage, du projet, etc. Et de ce point de vue, le 58coaching est un processus d’accompagnement destiné à adapter les représentations et les comportements de l’individu à ce climat de crise continue. On comprend alors que le modèle de la souveraineté, fondé sur l’absolu et la stabilité de la Loi19, ainsi que celui de la norme, qui suppose une construction statistique qui s’inscrit dans une certaine durée20, soient périmés et totalement dépassés par la nécessité vitale de l’ajustement constant qui suppose une évaluation permanente des processus en cours : d’où le glissement, que ne manque pas de souligner Alain Supiot, du gouvernement par les lois à la gouvernance par les nombres21.
Mais revenons à l’articulation des concepts scientifiques d’organisation et d’information : celle-ci prit la forme de la boucle de rétroaction qui associe dans sa circularité, de façon négative ou positive, la finalité, l’action, l’évaluation et le contrôle, et enfin la correction née de l’analyse des écarts, dans d’éternelles et problématiques conversions d’information en énergie et d’énergie en information autorisées par le jeu de la modélisation fonctionnelle. Nous nommons cette boucle « archi-modèle » pour signifier qu’elle se trouve à l’origine de la plupart des modèles scientifiques contemporains, c’est-à-dire pour souligner son rôle de matrice22.
Nonobstant, ancrer le gouvernement des données dans la cybernétique et les perpétuels processus de rétroaction (feedback) ne parvient guère à épuiser le sujet car il nous manque encore une approche plus fine de 59la notion d’information. À supposer que quelque chose de tel existe encore et que toute donnée ne se trouve pas toujours déjà transformée en information dans le cadre de la gouvernance, la donnée brute ne sert strictement à rien. En la matière, un détour par la logique et l’histoire de la logique s’avère nécessaire.
Wiener inscrit explicitement la cybernétique dans les pas de l’algèbre de Boole : « C’est pourquoi la machine à calculer doit être logique autant qu’arithmétique, et doit combiner les éventualités selon un algorithme systématique. Là où de nombreux algorithmes pourraient être utilisés, le plus simple d’entre eux est connu comme l’algèbre de la logique par excellence, l’algèbre booléenne. Cet algorithme, comme l’arithmétique binaire, est basé sur la dichotomie, le choix entre oui et non, entre appartenir à une classe et ne pas lui appartenir23 ». Quelques pages plus loin, Wiener prolonge le domaine d’application de la logique booléenne, et passe du domaine de l’informatique à celui de la biologie. L’isomorphisme prend alors la forme suivante : « Ainsi donc, les nerfs peuvent être pris pour des relais comportant essentiellement deux états d’activité : décharge et repos24 ». De la sorte, il prolonge les analyses de ses collègues des conférences Macy, le neurophysiologiste Warren McCulloch et le logicien Walter Pitts, qui avaient cinq ans auparavant montré que l’on pouvait réduire les vrais neurones à des neurones formels dotés de propriétés logiques25. Que doit-on alors retenir de l’algèbre de Boole ?
De même que Descartes procéda à l’algébrisation de la géométrie, Boole et ses successeurs crurent en la possibilité d’algébriser la logique. Cette entreprise prit le nom de « logique symbolique », « logique mathématique » encore « logistique », et procéda au rapatriement de la logique qui quitte ses appartements philosophiques pour gagner les contrées mathématiques. Boole pensait en effet que le raisonnement humain se calque sur les lois de l’algèbre, ce qu’il se proposa de mettre au jour grâce à la logique de classe fondée sur le symbolisme suivant :
60
Lois de l’algèbre |
Traduction logique |
xy = yx |
moutons blancs = blancs moutons |
x+y = y+x |
hommes et femmes = femmes et hommes |
z(x+y) = zx+zy |
les Européens (hommes et femmes) = les Européens hommes et les Européens femmes |
z(x-y) = zx-zy |
les Européens (les hommes, mais non les femmes) = les Européens hommes, mais non les Européens femmes |
(x=y+z) = (x-z=y) |
les astres sont les soleils et les planètes = les astres, exceptées les planètes, sont les soleils |
Tab. 1 – Quelques lois de la logique symbolique26.
Trois éléments essentiels sont à retenir de l’algèbre de Boole : en premier lieu, les opérations de la logique de classe s’effectuent sur n’importe quels objets, introduisant ainsi une irréversible coupure entre vérité matérielle et vérité formelle qui caractérise précisément le formalisme ; en outre, comme en logique x2 = x (puisque la classe des hommes, élevée à son carré, reste la classe des hommes), l’algèbre de Boole est binaire, l’équation n’admettant que 0 et 1 comme solutions : John von Neumann s’en souviendra, autant dans ses expérimentations informatiques que dans la théorie des jeux, mais aussi Norbert Wiener quand il établit l’isomorphisme entre ordinateur et système nerveux dans le livre fondateur de la cybernétique ; enfin, ce que laisse apparaître le tableau précédent, c’est l’identité entre calcul des classes et calcul des propositions.
Boole avait introduit le loup de la logique dans la bergerie des mathématiques : bien mal lui en prit, si l’on en juge par l’inversion qui s’ensuivit : en effet, constatant l’impossibilité du langage ordinaire à formaliser correctement le raisonnement logique, Frege mit au point une écriture symbolique nouvelle, qu’il baptisa « idéographie », avec l’objectif affiché qu’aucun signe ne pût posséder plusieurs sens. Ce faisant, l’arithmétique devint une extension, ou un point d’application, de la logique élevée au rang 61de discipline universelle. Exeunt sujets et prédicats, place à la fonction et à son argument : « Socrate est mortel » devient f(Socrate) dont le résultat, encore binaire, est soit vrai soit faux. S’ensuivent la définition d’opérateurs logiques (comme le conditionnel ou la négation) puis l’introduction de quantificateurs (universel et existentiel) qui dépouillent la langue de toutes ses scories pour édifier un calcul propositionnel fondé sur une syntaxe rigoureuse ainsi que sur une sémantique fondée sur l’univocité : à chaque proposition une seule et unique référence.
La théorie de Frege souffrait néanmoins d’un paradoxe logique que Russel mit en évidence : distinguant les prédicats qui peuvent être prédiqués d’eux-mêmes, et ceux qui ne le peuvent pas, le philosophe britannique posa alors la question qui allait lui ouvrir le chemin de la théorie des types : le prédicat « prédicat qu’on ne peut prédiquer de lui-même » peut-il être prédiqué de lui-même ? En termes moins techniques, ce paradoxe est connu pour être celui du menteur, déjà formulé par le philosophe mégarique Eubulide qui place les mots suivants dans la bouche d’épiménide le Crétois : « Tous les Crétois mentent tout le temps ». S’il dit vrai, alors, en tant que Crétois, il ment en nous le disant ; s’il ment, il vérifie le contenu de sa proposition, énonçant alors la vérité. Pour sortir de ce cercle vicieux, Russell choisit de restreindre l’utilisation des symboles d’appartenance (∈) et d’inclusion (⊂) de telle manière qu’un objet de type n ne puisse appartenir qu’à un objet de type n+1 : ainsi émergent des niveaux n de vérité contenant des propositions d’ordre n. « Tous les Crétois mentent tout le temps » est une proposition de type 1, « épiménide le Crétois dit : “Tous les Crétois mentent tout le temps” » est une proposition d’ordre 2. Russel résout alors le paradoxe du menteur en mettant en évidence que la proposition 2 est une affirmation de la proposition 1. Il convient en outre de noter la permanence, en creux, de l’algèbre binaire ; car la théorie des types logiques, en reposant sur la notion d’appartenance, n’offre que deux alternatives : soit l’objet appartient à un type, soit il ne lui appartient pas.
La théorie des types logiques allait connaître un avenir des plus radieux. Étudiant de Russel à Cambridge, Wiener, qui, dans l’introduction de Cybernetics, n’hésite pas à voir dans « l’influence de la logique mathématique un élément récurrent dans l’histoire de la cybernétique27 », la 62mobilisera pour établir deux modèles de communication et assurer le départ entre l’ivraie de la rigidité et le bon grain de l’apprentissage : « Cette forme d’apprentissage est sans aucun doute une rétroaction, mais de niveau supérieur, celui des stratégies et non des actions élémentaires. Par rapport aux rétroactions plus basiques, elle n’est pas de ce que Russell appellerait du même “type logique28” ». La référence aux types logiques de Russell permet alors à Wiener de distinguer deux formes de rétroaction : « Comme je l’ai dit, la rétroaction est la commande d’un système au moyen de la réintroduction, dans ce système, des résultats de son action. Si ces résultats ne sont utilisés que comme données numériques pour l’examen et le réglage du système, nous obtenons la rétroaction simple que connaissent bien les automaticiens. Si, par contre, l’information portant sur l’action effectuée est capable de modifier la méthode générale et le modèle de celle-ci, nous disposons d’un processus que l’on peut bien nommer apprentissage29 ». On reconnaît ici l’émergence de deux formes d’apprentissage : la première concerne l’amélioration de processus déjà existants tandis que la seconde témoigne de l’émergence de nouvelles méthodes. Mais Wiener ne s’arrête pas en si bon chemin et, six ans plus tard, complète cette première esquisse par une troisième forme d’apprentissage, qui concerne cette fois-ci la finalité du système elle-même : « Je crois que cette idée brillante d’Ashby, d’un mécanisme agissant au hasard et sans but et qui recherche sa propre fin à travers un processus d’apprentissage, est non seulement l’une des plus grandes contributions à la philosophie actuelle, mais va conduire à des développements techniques très utiles dans le domaine de l’automatisation30 ». La distinction des niveaux d’apprentissage, fondée sur l’algèbre de Boole et sur la théorie des types de Russell qui permet de passer d’un ensemble E1 à un ensemble E2 qui contient le premier, constitue la définition même de la rétroaction, que l’on qualifiera soit de négative soit de positive selon les cas, et par là même du gouvernement des données : produire des corrélations instantanées nécessite bien d’avoir préalablement réduit la parole à l’univocité d’un code.
63Attentif aux évolutions de la science, Heidegger avait parfaitement observé la place centrale de l’univocité dans la cybernétique :
La série des signes se trouve reconduite à une série de décisions oui-non. Des machines sont commises à la production de telles séries : celles-ci, grâce aux flux de courant et aux impulsions électriques, suivent ce modèle abstrait de production de signes et fournissent les messages correspondants. Pour qu’une telle espèce d’information devienne possible, chaque signe doit être défini de façon univoque ; de même chaque ensemble de signes doit signifier de façon univoque un énoncé déterminé. L’unique caractère de la langue qui subsiste dans l’information est la forme abstraite de l’écriture, qui est transcrite dans les formules d’une algèbre logique. L’univocité des signes et des formules qui est nécessairement exigée de ce fait assure la possibilité d’une communication certaine et rapide31 .
Rattacher ainsi la cybernétique à un tel « paradigme », c’est manifestement inscrire cette dernière dans une longue querelle, celle de l’analogie et de l’univocité : en effet, le naturalisme informationnel, qui conçoit l’ensemble des étants à l’aune d’un concept scientifique et logique, de fait promu au rang de catégorie ontologique première, prend assurément ses racines dans la doctrine scotiste qui constitue un tournant absolument remarquable dans l’histoire de la métaphysique et de la théologie. Qu’appelle-t-on exactement univocité dans ce contexte ? Quels en sont les tenants et les aboutissants ? On ne peut guère saisir la nouveauté radicale de Duns Scot sans un bref détour par Avicenne et Henri de Gand. Pour le philosophe arabe, l’essence s’oppose dans sa simplicité à la complexité de la proposition : si la première concerne la nature même des êtres possibles, la seconde, reposant alors sur le seul principe de non-contradiction, concerne la réalité effective car elle attribue à un sujet des caractères essentiels. De ce point de vue, et seulement de celui-ci, l’être devient indissociable d’une existence, et l’étant l’essence la plus simple de toutes, immédiatement présent à notre esprit comme une impression première. Quant à Henri de Gand, soucieux de préserver la transcendance de Dieu, il semble tout d’abord maintenir le privilège de l’analogie : si le Créateur et ses créatures peuvent être dits univoques, elles ne le sont en effet qu’en fonction d’une communauté de nom (« étant ») et non pas de choses, sous peine de voir la transcendance 64divine s’effondrer. Ainsi Dieu ne peut-il être prédiqué que par l’analogie qui suppose une communauté dans l’être, et non pas un rapport de participation qui atténuerait la distance séparant Dieu de sa Création : de fait, l’analogie théologique se soumet à l’analogie ontologique. Mais il s’agit bien d’une opération de prédication, et Henri de Gand reste fidèle à Avicenne, de telle sorte que
l’analogie est tout entière passée dans le concept : elle n’est plus seulement l’analogie des choses possibles à l’intérieur de leur représentation, mais l’analogie entre le possible et le simplement représentable32.
Il revient alors à Scot de pousser la logique avicennienne à son terme en commettant le parricide de l’analogie pour épurer la métaphysique des contradictions de la thèse henricienne (le concept univoque d’étant qui désigne la réalité d’étants de nature et de raison différentes) et ainsi enraciner la métaphysique dans une théorie de la connaissance. La source du primat moderne de la représentation et de la volonté, abondamment étudiée par Heidegger chez Descartes, Schelling et Nietzsche, se trouve ici tout entière présente, ainsi que la substitution du formel à la cause finale. À la question de l’objet premier de l’intellect, Scot répond par l’univocité de l’étant en la limitant à la seule prédication quidditative ; ce faisant, il la réduit « à une unité de surface, selon une compréhension minimale33 », et assigne à la métaphysique la tâche de la conception du commun, dans sa plus large extension et sa plus grande indétermination – « neutre », au sens que Gilles Deleuze et Maurice Blanchot ont donné à ce terme –, et non pas d’appréhension de la perfection divine, pensée comme être infini, qu’il revient à la théologie de prendre en charge :
[…] Dieu n’est pas seulement conçu dans un concept analogue au concept de créature, c’est-à-dire qui soit entièrement autre que celui qui est dit de la créature, mais dans un certain concept univoque à lui et à la créature. Et pour qu’il n’y ait pas de conflit touchant le nom d’univocité, j’appelle concept univoque celui qui est un de telle façon que son unité suffise à la contradiction, quand on l’affirme et le nie du même […]34
65Admettre le concept d’étant comme le commun du Créateur et de la créature, c’est du même coup, lorsque l’on en tire toutes les conséquences nominalistes, faire dépendre l’existence de Dieu de l’existence de toutes choses, ou de chaque chose, autrement dit poser une très lourde épée de Damoclès sur sa tête. Car soit l’étant est, et alors Dieu est également, et il convient alors de se pencher sur ses différences qualitatives et de se ménager un accès direct à lui : c’est ce que viseront par exemple le protestantisme et le jansénisme ; soit il n’est pas et peut alors s’organiser l’éclipse progressive de Dieu du théâtre occidental au sein même du christianisme, cette religion de la sortie de la religion. Cette voie de l’univocité triompha avec la modernité empiriste, la révolution logique, le Cercle de Vienne, la philosophie analytique : il se pourrait alors que la cybernétique et le gouvernement des données, par l’histoire et les fondements qui les reconduit au nominalisme médiéval, soient comme l’accomplissement de ce mouvement général de la sécularisation occidentale.
La conception de la langue comme instrument d’information est aujourd’hui poussée à l’extrême. […] Grâce aux machines évoquées ci-dessus, la machine à parler est devenue réalité.
[…] la machine à parler réglemente et mesure, à partir de ses énergies et de ses fonctions mécaniques, la forme de notre utilisation possible de la langue. La machine à parler est – et surtout deviendra – l’une des façons dont la technique moderne dispose du mode et du monde de la langue en tant que telle.
En attendant, il semble toujours en apparence que l’homme maîtrise la machine à parler. Mais il se pourrait bien, en vérité, que la machine à parler prenne en charge la langue et maîtrise ainsi l’essence de l’homme.
Le rapport de l’homme à la langue est pris dans une mutation dont nous ne mesurons pas encore la portée. […]35
Baptiste Rappin
Maître de Conférences HDR
à l’Université de Lorraine
(IAE de Metz) et chercheur
au CEREFIGE (EA 3942)
1 Maurice Merleau-Ponty, La prose du monde, trad. Raissa Tarr Paris, Éditions Gallimard, « Tel », 1969, p. 10.
2 Alain Desrosières, Gouverner par les nombres. L’argument statistique II, Paris, Presses de l’École des Mines, « Sciences Sociales », 2008.
3 Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, 2013, no 177.
4 Éric Sadin, La vie algorithmique. Critique de la raison numérique, Paris, Éditions L’Échappée, 2015.
5 Olivier Rey, Quand le monde s’est fait nombre, Paris, Stock, « les essais », 2016.
6 Alexandre Koyré, Du monde clos à l’univers infini, trad. Raissa Tarr, Paris, Éditions Gallimard, « Tel », 1973.
7 Ibid., p. 7-8.
8 Outre le récent ouvrage d’Olivier Rey cité ci-dessus, le lecteur se reportera au remarquable travail d’Alain Desrosières : La politique des grands nombres. Histoire de la raison statistique, Paris, La Découverte, « Poche », 2010 (première édition : 1993) ; Pour une sociologie historique de la quantification. L’argument statistique I, Paris, Presses de l’École des Mines, « Sciences Sociales », 2008 ; Gouverner par les nombres. L’argument statistique II, Paris, Presses de l’École des Mines, « Sciences Sociales », 2008.
9 À l’image de la formulation de la logique, conçue comme un langage commun par les philosophes grecs, et plus particulièrement Aristote, à l’origine du « miracle grec » : Paul Jorion, Comment la vérité et la réalité furent inventées, Paris, Éditions Gallimard, « Bibliothèque des Sciences Humaines », 2009, p. 137.
10 Adolphe Quételet, Lettres à S.A.R. le Duc Régnant de Saxe-Cobourg et Gotha sur la théorie des probabilités appliquée aux sciences morales et politiques, Bruxelles, M. Hayez, 1846, p. 133 sq.
11 Adolphe Quételet, Sur l’homme et le développement de ses facultés, ou essai de physique sociale, tome 2, Paris, Bachelier, 1835, p. 267.
12 Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Art. cité, p. 173.
13 Éric Sadin, La vie algorithmique. Critique de la raison numérique, op. cit., p. 133.
14 Ibid., p. 63.
15 Les conférences Macy se tinrent de 1946 à 1953, et réunirent les scientifiques qui furent à l’origine de la cybernétique. Se reporter à la référence suivante : Steve Joshua Heims, Constructing a Social Science for Postwar America : The Cybernetics Group, 1946-1953, The MIT Press, 1993.
16 Norbert Wiener, La Cybernétique. Information et régulation dans le vivant et la machine, Paris, Seuil, « Sources du savoir », 2014, p. 69.
17 Le lecteur pourra se rapporter à nos propres travaux et notamment à : Au fondement du Management. Théologie de l’Organisation, volume 1, Nice, Ovadia, « Chemins de pensée », 2014 et Heidegger et la question du management. Cybernétique, Information et Organisation à l’époque de la planétarisation, Nice, Ovadia, « Chemins de pensée », 2015.
18 Comme le note Giorgio Agamben (État d’exception, Homo Sacer II, 1, trad. Joël Gayraud, Paris, Éditions du Seuil, « L’ordre philosophique », 2003, p. 11), « la création volontaire d’un état d’urgence permanent (même s’il n’est pas déclaré au sens technique) est devenue l’une des pratiques essentielles des États contemporains, y compris de ceux que l’on appelle démocratiques ». L’état d’exception ne dépend donc pas de sa déclaration officielle, et nous souhaitons ici élargir le propos du philosophe italien au-delà de la seule dimension juridico-politique.
19 Jean Bodin définit la République par la puissance, absolue et perpétuelle, de la souveraineté : et la « première marque » de cette dernière est de donner et de casser les lois. Voir le premier des Six Livres de la République, Paris, Librairie Générale Française, « Les classiques de la philosophie », 1993.
20 Michel Foucault a parfaitement décrit le phénomène de dépassement de la souveraineté par la norme : par le bas, cela se nomme « discipline » et concerne le contrôle des corps individuels ; par le haut, « biopolitique » et ce qui est en jeu, c’est l’orientation de la masse (Il faut défendre la société. Cours au Collège de France. 1975-1976, Paris, Gallimard Seuil, 1997, p. 222). Mais dans un cas comme dans l’autre, la norme, malgré sa contingence sociale et historique, s’installe dans une certaine durée.
21 Alain Supiot, La gouvernance par les nombres. Cours au collège de France (2012-2014), op. cit. Voir plus particulièrement le Chapitre 1 de la Première Partie : « En quête de la machine à gouverner ».
22 On peine à percevoir l’insigne importance de la révolution cybernétique pour l’ensemble des champs scientifiques et la pensée philosophique ; la lecture des ouvrages suivants y aide grandement : Jean-Pierre Dupuy, Aux origines des sciences cognitives, Paris, Éditions La Découverte, « Sciences humaines et sociales », 1999 ; Céline Lafontaine, L’empire cybernétique. Des machines à penser à la pensée machine, Paris, Éditions du Seuil, 2004.
23 Norbert Wiener, La Cybernétique. Information et régulation dans le vivant et la machine, op. cit., p. 222.
24 Ibid., p. 225.
25 Warren McCulloch et Walter Pitts, « A logical calculus of the ideas immanent in nervous activity ». Bulletin of mathematical biophysics, 1943, no 5, p. 115-133.
26 Jean-Pierre Belna, Histoire de la logique, Paris, Ellipses, 2014, p. 89.
27 Norbert Wiener, La Cybernétique. Information et régulation dans le vivant et la machine, op. cit., p. 71.
28 Norbert Wiener, Cybernétique et société. L’usage humain des êtres humains, Paris, Éditions du Seuil, « Sciences », 2014, p. 90.
29 Ibid., p. 93.
30 Ibid., p. 69.
31 Martin Heidegger, Langue de tradition et langue de pensée, Bruxelles, Éditions Lebeer-Hossmann, 1990, p. 98-99.
32 Olivier Boulnois, Être et représentation. Une généalogie de la métaphysique moderne à l’époque de Duns Scot (xiiie-xive siècle), Paris, Presses Universitaires de France, « Épiméthée », 2008, p. 280.
33 Ibid., p. 286.
34 Jean Duns Scot, Sur la connaissance de Dieu et l’univocité de l’étant, Paris, Presses Universitaires de France, « Épiméthée », 2011, p. 94-95.
35 Martin Heidegger, « Hebel », traduit de l’allemand par Julien Hervier, dans Questions III/IV, Paris, Éditions Gallimard, « Tel », 2002, p. 62-63.
- Thème CLIL : 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
- ISBN : 978-2-406-07064-1
- EAN : 9782406070641
- ISSN : 2497-1650
- DOI : 10.15122/isbn.978-2-406-07064-1.p.0051
- Éditeur : Classiques Garnier
- Mise en ligne : 12/08/2017
- Périodicité : Semestrielle
- Langue : Français