Quelles sont les conditions de l’organisation des savoirs humains ? Dialogue entre Vannevar Bush, Theodor Nelson et Michel Foucault
- Publication type: Journal article
- Journal: Études digitales
2016 – 1, n° 1. Le texte à venir - Author: Shigemi (Shinya)
- Pages: 69 to 86
- Journal: Digital Studies
Quelles sont les conditions
de l’organisation
des savoirs humains ?
Dialogue entre Vannevar Bush,
Theodor Nelson et Michel Foucault
Introduction
Le texte a changé de support matériel au cours des siècles et il était incontournable qu’à la fin du siècle dernier nous entrions dans l’ère numérique. De fait, tout support numérique se distingue par un type d’hypertexte dont le meilleur exemple se présente aujourd’hui sous la forme du web. Le web se réfère sur le réseau par la URL, qui commence par l’indication d’un protocole de communication comme « http ». Le sigle « http », qui est l’abréviation de « Hypertext Transfer Protocol », témoigne clairement du fait que le web se constitue par l’hypertexte.
Il a fallu 20 ans environ pour que les premiers projets informatiques inventent le terme d’« hypertexte ». Certes, le Colossus en Angleterre (1944) ou l’ENIAC en Amérique (1946) existaient déjà, mais leur usage se limitait à des calculs à usage militaire et l’on attendait l’arrivée d’un ordinateur polyvalent1. Si Vannevar Bush esquisse sa machine en temps de paix, dans un article daté de 1945, c’est pour encourager les scientifiques à travailler au développement d’un ordinateur aux multiples usages, au lieu de concevoir de nouveaux armements comme en temps de guerre. Son éditeur considère d’ailleurs l’article comme égalant le discours de Ralph Waldo Emerson prononcé en 1837, « The American Scholar », qui insiste sur l’indépendance américaine dans le domaine 70académique. Paul Otlet et Henri La Fontaine ont, certes, créé une Classification Décimale Universelle encore en usage aujourd’hui afin d’organiser les ouvrages des bibliothèques au début du xxe siècle, et Suzanne Briet, dont la conception conserve toute sa valeur aujourd’hui, a clairement vu la nécessité de faciliter la communication des documents à l’échelle internationale après la dernière guerre mondiale, cependant l’éditeur américain considère que Bush annonce une nouvelle ère en offrant l’image concrète d’un instrument informatique et de son usage.
On sait que l’Internet d’aujourd’hui a débuté par le projet de l’ARPA (ARPANET) en 1963. Mais ce projet n’était pas isolé ; à titre d’exemples, Paul Baran faisait des recherches sur des « Distributed Communications2 », publié en 1964, et Douglas Engelbart terminait son travail sur le système hypertextuel de NLS, « Online System », inspiré par l’article de Bush en 19453. Ces exemples témoignent du fait que le réseau et la communication étaient alors au centre des recherches informatiques. C’est ainsi que le terme « hypertexte » a vu le jour lors de l’intervention de Theodor Nelson en 1965.
Notons que c’est en un an avant que Michel Foucault publie les Mots et les Choses. Foucault y explique notamment comment le classicisme organise et ordonne les choses en s’appuyant sur les documents de l’époque. Il est vrai que ces diverses recherches divergent les unes des autres et que leurs perspectives sont différentes, mais elles partageraient un intérêt commun : celui de penser le texte à venir. Ainsi, le présent article cherche à rendre compte de la nature de l’organisation des savoirs au moyen de l’hypertexte, ceci en se rapportant aux articles qui sont à l’origine de la définition de l’hypertexte, et à mettre en parallèle la première définition de l’hypertexte et le texte foucaldien.
71Fondement de l’idée d’« hypertexte »
On peut dire qu’il existe deux origines de l’hypertexte : la conception vient de Vannevar Bush, tandis que la terminologie est de Theodor Nelson. L’un esquisse la conception du matériel, alors que l’autre conçoit le logiciel. Les deux projets sont séparés l’un de l’autre par 20 ans de recherches, cependant il semble qu’ils partagent une compréhension commune et fondamentale de leur objet. D’ailleurs, la lecture des deux textes fondateurs des études sur l’hypertexte permet de comprendre qu’il s’agissait à l’origine d’organiser des savoirs humains surabondants ou complexes.
Les études numériques préfèrent attribuer l’invention du terme à Theodor Nelson, auteur d’un article de 1965 : « A File Structure for The Complex, The Changing and the Indeterminate ». Les 17 pages de l’article discutent de l’idée nommée par Nelson « Evolutionary List File », abrégée ELF4. Il s’agit donc d’un système de fichiers ; et ce système vise à permettre aux usagers de récupérer ou de documenter facilement des données personnelles et complexes au moyen du simple usage de l’ordinateur. Nelson y explique longuement les problèmes qui seraient résolus par l’introduction de l’ELF, qui est perçu par Nelson comme un « dream file » destiné aux écrivains ou aux professeurs, censés empiler des notes ou des manuscrits d’une manière subtile mais trop personnelle et complexe5. C’est ce « dream file » qui est nommé « hypertext6 ».
Or la discussion sur la nécessité et l’efficacité de son idée de l’ELF montre combien Nelson met l’accent sur le problème de l’écriture ; il se demande comment peut-on décrire le processus de l’écriture7. Il évoque à ce titre un système d’ordinateur introduit par la société IBM en 1965, « Administrative Terminal System », qui permet de remanier des « manuscrits » ou des notes prises avec l’ordinateur, mais il regrette que le système ne traite d’aucune autre matière que les signes verbaux 72générés par son système. Cependant, la rédaction d’un texte demande de nombreux travaux, non seulement sur des matières verbales, mais aussi sur des textes déjà publiés, des images, des illustrations, des graphiques ou d’autres matières non verbales. Cela est rendu possible par le processus d’alignement, de juxtaposition ou de comparaison des matières qui sont incorporées dans un texte. C’est ainsi que Nelson voit la nécessité d’introduire un outil numérique qui servirait de dépôt personnel de « manuscrits numériques » de toutes sortes de matières possibles. En d’autres termes, son système se présente comme un outil d’écriture.
À l’issue de cette considération préliminaire mais essentielle, Nelson introduit trois spécificités centrales d’indexage qu’il présente comme des fonctionnements majeurs de son outil d’écriture. Il s’agit de l’indexage automatique, de l’indexage dynamique et de ce qu’il appelle « spin-off facilities ». Notons ici à propos des termes « index » et indexage que Nelson fait référence ouvertement aux idées que Vannevar Bush a proposées dans son article sur le « Memex8 », sur lequel nous reviendrons après.
Premièrement, l’indexage automatique est considéré par Nelson en remplacement du livre de code chez Bush. Il se propose de générer automatiquement l’index des matières illimitées avec des balises elles-mêmes illimitées. Ensuite, il introduit l’indexage dynamique. L’idée en est qu’un bon plan de texte, dit « outlining », ne se fera pas tout seul et qu’il est demandé au rédacteur de retravailler et de réviser incessamment l’ordre des éléments dans son texte. Nelson qualifie cette idée de « dynamic outlining », ou de « dynamic indexing », qui aiderait le rédacteur à apporter des changements au cours de la rédaction à tous les passages d’un texte. La dernière spécificité évoquée par Nelson dans sa présentation de l’ELF est celle qui permet au système de préserver différentes versions de brouillons ou de « manuscrits numériques », voire des éléments mis à part (spin-off). Ces trois fonctions seront intégrées au cœur du système sous le nom d’« evolutionary », d’où l’appellation de système « évolutif ».
Nelson donne ainsi une explication détaillée de son système, mais ce qui doit être retenu est le fait qu’il recourt vers la fin de son article au néologisme pour expliquer son idée. Il y exprime clairement sa prophétie en annonçant l’arrivée d’un nouveau médium, de l’importance de 73conserver des traces des changements apportés au texte et de les archiver dans des mémoires informatiques. Sa conception esquisse ainsi un nouvel outil afin d’organiser des savoirs humains9. C’est dans ce contexte que Nelson introduit le terme « hypertexte », au sens où l’hypertexte réalise un corps de matières écrites ou picturales qui sont liées entre elles d’une manière tellement complexe qu’il n’est pas communément présent ou actuellement réalisé sur un support papier10. Cela nous permet de considérer l’ELF comme hypertexte, d’une part, et comme outil d’écriture, d’autre part. L’idée d’hypertexte vient de la nécessité de mieux organiser des notes ou des documents de toutes sortes, et surtout de préserver automatiquement les changements apportés au cours de la genèse d’un texte ; aussi le terme d’« hypertexte » est-il inséré dans le vocabulaire des sciences informatiques ; mais Nelson lui-même avoue que l’idée d’hypertexte vient d’un autre personnage répondant au nom de Vannevar Bush11.
Vannevar Bush est connu comme étant chercheur à MIT qui a inventé le premier calculateur analogique complet. Il a également joué un rôle important dans la deuxième guerre mondiale, notamment dans la mise au point de la bombe atomique. C’est vers la fin de la dernière guerre mondiale qu’il a contribué, comme « Director of the Office of Scientific Research and Development », à un article intitulé « As We May Think12 » paru dans la revue The Atlantic Monthly. Il y esquisse le projet d’un appareil qu’il baptise « Memex ». C’est le texte de cet article que Nelson cite longuement. D’ailleurs, ce dernier reconnaît que la conception du matériel y a déjà été présenté et préparé, et il n’oublie pas de faire remarquer, à la fin de sa citation, que ce matériel n’est pas encore disponible deux décennies plus tard13.
L’article de Bush, publié pour la première fois au mois de juillet 1945, est ancré au moment de sa publication dans l’actualité, car, dès 74le début de l’article, Bush exprime l’idée que le type d’appareil qu’il va esquisser servira d’objet de recherche pour les scientifiques de l’après guerre14. Il s’agit donc de proposer un projet réalisable dans l’après guerre et destiné aux personnes faisant des recherches dans le domaine des sciences naturelles et surtout de la physique.
Bush y évoque plusieurs instruments inventés pour les recherches scientifiques et conclut qu’ils contribuent beaucoup à la société et au développement de l’environnement matériel. Il fait entendre ainsi que des savoirs humains progressent en fonction des recherches scientifiques. Or, comme l’illustrent bien les lois de Mendel dans le domaine de la génétique, les difficultés de transmettre et d’examiner les résultats de la recherche deviennent plus grandes à mesure que progresse la spécialisation dans la recherche. Il s’agit donc ici d’organiser des savoirs humains surabondants grâce à des instruments nouveaux.
C’est dans ce contexte que Bush fait allusion aux machines à calculer de Leibniz et de Babbage. Si les deux savants ont bien réalisés les machines qu’ils avaient conçues, elles ne sont pas pour autant devenues d’un usage courant. C’est que la situation économique à l’époque de leur invention gêne leur production de masse ainsi que leur usage. Mais les temps changent, et l’on arrive à l’ère des appareils à prix modéré dotés d’une grande fiabilité. Ainsi, Bush conçoit une machine à l’usage de tout le monde semblable à une archive ou à une bibliothèque automatique de données personnelles15. Cette conception nous dévoile sa spécificité d’une machine conçue non pas pour écrire, mais essentiellement pour lire.
À la base de cette conception du « Memex », on distingue une mise au point personnelle sur l’entendement humain. D’après Bush, le recours au système d’indexage faisait partie de la grande majorité des essais visant à construire un instrument nouveau, alors que l’esprit humain fonctionne selon un processus associatif16, comme l’indique le titre de l’article, as we may think. Il est vrai que l’intuition joue un rôle décisif pour déclencher un processus associatif, mais, selon Bush, l’intuition nécessite la sélection de renseignements mémorisés par l’entendement. 75Or les savoirs humains s’organisent à partir de ce processus associatif dont la nature est répétitive. La création elle-même n’est que le résultat de la répétition associative, et cette répétition révèle de la logique.
C’est ainsi que Bush envisage la possibilité d’automatiser le processus associatif de l’entendement humain. En outre, si l’on optimise les données mémorisées dans l’archive de la machine automatique, le nombre des occasions de sélection pourrait se réduire au minimum. Une fois archivées par le moyen de microfilm de haute qualité, les données sont prêtes à être sélectionnées pour que l’usager développe une pensée créative par sélection.
Si Bush insiste sur l’importance de l’association des données, c’est qu’il est contre le système d’indexage. Le système d’indexage lui semble trop artificiel en comparaison avec l’entendement humain, parce qu’il oblige l’utilisateur à entrer dans le système chaque fois qu’il veut lancer une recherche nouvelle dans l’archive. C’est une des raisons pour lesquelles il conçoit sa machine sur le modèle de l’association d’idées. Bush n’entend pas de sa machine qu’elle copie le fonctionnement associatif, mais il s’en inspire afin de doter sa machine d’une relative permanence ; aussi développe-t-il l’idée de sélection par association, idée au moyen de laquelle il assure à sa machine une supériorité par rapport à l’esprit humain en matière de permanence et de clarté des données récupérées dans l’archive.
Il est vrai que l’ELF de Nelson et le « Memex » de Bush sont des projets qui n’ont pas vu le jour et qu’ils sont restés à l’état de projet. Cependant, l’ELF a donné naissance au terme d’« hypertext » et le projet « Memex » a directement inspiré l’idée de Nelson. Les deux conceptions partagent un intérêt commun, celui d’organiser automatiquement les savoirs humains dont l’organisation dépasse nos capacités.
Association et indexage
chez Bush et chez Nelson
Au-delà de leur parenté apparente, il importe qu’on en aperçoive les différences. L’ELF de Nelson concerne un logiciel contribuant, dans la rédaction d’un texte, à assurer la préservation des changements par le moyen de l’indexage, alors que le « Memex » propose le plan d’un 76objet matériel destiné à la lecture et à la récupération de données dans l’archive par un processus d’association et d’une manière plus humaine que l’indexage. Nous sommes ainsi en présence de deux différents types d’hypertexte et cela proviendrait des différentes acceptions du terme « indexage ». En effet, dans les deux cas que nous venons d’évoquer, l’indexage se place au centre du projet d’organiser les savoirs humains : chez Nelson l’hypertexte a une valeur positive en étant défini comme « dynamic indexing », par contre chez Bush il a une valeur négative et est remplacé par l’idée d’association.
L’indexage chez Nelson se présente comme composant un texte entier. Chaque titre de l’indexage opère comme un balisage et permet à l’usager d’hypertexte, donc à l’écrivain, de garantir la flexibilité inhérente à sa réalisation dans l’ordre des titres. En fait, Nelson estime que Bush avait déjà mis en place cette fonction de l’indexage en concevant sa machine : « On se souvient de l’article de Bush pour ses prédictions dans le domaine de la récupération informatique, car il prévoyait l’avancée et les potentialités du traitement automatique des documents ainsi que la nécessité d’introduire un grand nombre de nouvelles techniques d’indexage17 ». C’est sur la base de cette compréhension que Nelson précise sa conception de l’ELF.
Il détaille la structure de son système, désigné par le terme de « zippered list », comme étant composé des trois éléments suivants : entrées, listes et liens. D’après sa conception, une liste est constituée de plusieurs entrées arrangées selon une suite ordonnée ; et deux listes s’associent par l’intermédiaire d’une entrée appartenant à chaque liste et figurée par une fermeture à glissière. Ce principe général, mais simple, fait naître un réseau d’entrées ou de listes évoluant par association ; et l’usager peut obtenir un résultat d’analyse simple à partir de données vastes et complexes. L’usager du système, ayant l’objectif de rédiger un texte entier et complet, enregistre des textes, des notes, des sons ou des images, et leur donne un titre. Ensuite, il arrange ces titres suivant un certain ordre. C’est donc par l’intermédiaire du système d’indexage qu’il arrive avec l’ELF à finaliser le texte à rédiger. Son système ne serait pas réalisé sans fonctions de l’indexage.
La préoccupation principale de Nelson réside dans l’idée de préserver automatiquement tous les changements réalisés au cours de la rédaction 77d’un texte. Ainsi, il affirme avant d’entrer dans la conclusion de son article : « la seule structure ultime est le changement lui-même ». Si l’indexage est une idée-clé pour sa conception, c’est qu’il garantit des changements dans le système. À l’opposé du changement, Nelson émet l’idée de catégorie. En fait, l’indexage remplace l’idée de catégorie. Les catégories sont pour lui chimériques ou temporelles. C’est ainsi qu’il pense que nos systèmes de catégorisation doivent évoluer au cours de leur développement18. Si Nelson conçoit un logiciel permettant d’établir des indexes renouvelables à volonté et à tout moment, c’est qu’il y voit le moyen d’automatiser le système d’indexage proposé par Bush. L’intérêt du système de Nelson, en outre, réside dans l’ambition de vouloir traduire la fonction cognitive par l’automatisation. En effet, ce dernier insiste sur les avantages psychologiques du système ELF et sur la nature complète, fermée et unifiée du système19.
Malgré la reconnaissance dont il fait l’objet de la part de Nelson, Bush n’est pas protagoniste de l’indexage dans son article. En fait, l’idée d’indexage chez Bush n’est pas si déterminante que Nelson ne le pense. Nous pourrions même trouver à ce sujet deux explications contradictoires dans le texte de 1945. Comme nous l’avons déjà noté assez brièvement, Bush considère l’indexage comme un sytème à rejeter. Si l’on peut apprendre de l’entendement humain, la conception de la machine exige, selon lui, de travailler à la réalisation d’une sélection des données par association.
Notons que Bush prend le terme « sélection » au sens large du terme. Il évoque l’idée qu’un certain type de sélection est déjà mécanisé et prend l’exemple d’un appareil permettant de sélectionner un ensemble d’empreintes digitales parmi cinq millions d’empreintes conservées dans une archive ; il appelle ce type de sélection « sélection simple ». La sélection simple consiste à examiner toutes les données consultables dans une archive ; elle reste lente et lourde dans son fonctionnement. Bush prend ensuite l’exemple d’un autre type de sélection en évoquant le central téléphonique automatique. Ce type de sélection équivaut à ce qu’on appelle la recherche progressive. Comme la sélection progressive s’exécute sur des digits, un par un, en allant de gauche à droite des données, elle procède de façon bien plus rapide que la sélection simple. 78Bush prévoit ainsi la nécessité et l’utilité de la sélection progressive, notamment accompagnée des techniques de télégraphone de Valdmer Poulsen. Bush prévoit ainsi l’arrivé de réseaux numériques, en considérant que l’ensemble des techniques permettra de projeter des données dans le lointain.
C’est dans ce contexte qu’il nous rappelle que le système d’indexage se caractérise par sa redondance et par son manque de rapidité, comme la sélection simple. Bush explique que les titres à l’indexage sont archivés dans le dépôt et qu’ils sont rangés dans l’ordre alphabétique ou numérique. Quand il recherche un titre, le système doit suivre cet ordre en procédant de haut vers bas. Enfin, leur dépôt exige en outre de suivre des lois encombrantes et de les partager entre plusieurs usagers.
Bush propose la « sélection associative » sur la base de cette conception du système. Comme la sélection progressive, la sélection associative fonctionne avec rapidité. Sa réalisation suppose de fixer les associations des pensées humaines, qui sont éphémères et transitoires, et de simplifier des associations complexes et détaillées. Il est évident que le « Memex » se conçoit dans la perspective de réaliser une sélection progressive et associative afin de récupérer rapidement des données. Il s’agit de rejeter le système d’indexage, identifié à la « sélection simple », et, par contre, de travailler à un système d’association garantissant, pour la récupération des archives, rapidité et flexibilité, égalant le cerveau humain, voire même le surpassant, et visant à la permanence des données ainsi qu’à leur clarté.
Il nous semble assez clair après de telles explications que Bush préfère le système de l’association à celui de l’indexage. Pourtant, il est à noter que Bush donne aussi, dans son texte, un contre-exemple de ce qu’on appelle communément « Turkish Bow Scenario ». Mais on pourrait en apercevoir un signe précurseur dans le passage où Bush émet une réserve concernant la consultation des données par le schème usuel de l’indexage20. L’indexage est incapable de parvenir aux données voulues, mais il est toutefois préférable de laisser ouverte la possibilité de nous en servir, et l’on peut considérer qu’il prépare un coup de force.
Si un usager veut consulter un livre archivé avec la machine, il tape le code de celui-ci sur un clavier équipé. La couverture du livre apparaît 79promptement devant lui, projetée sur l’écran. Pour cela, il est certain que l’usager connaît, voire même par cœur, le code du livre, sinon il sera nécessaire de consulter un livre de codes. D’ailleurs, Bush ajoute que, comme les codes à usage fréquent sont mnémoniques, il y aura peu de personnes qui consulteront le livre de code pour en saisir un21. Le début des recherches commence ainsi par la saisie d’un code, et cette opération ne demanderait aucunement une sélection associative, puisqu’il ne s’agit que de processus mnésiques.
Par ailleurs, le scénario du tir à l’arc turc donne une image précise de ce qu’est l’indexage pour Bush. Ce scénario est connu par sa démonstration de la fonctionnalité de « trail », qui équivaut à l’hyperlien du web actuel. C’est vers la fin du scénario qu’on rencontre une mention du livre de code en usage. C’est l’histoire d’un usager qui a fait des études sur la supériorité de l’arc turc à l’arc long anglais au moment de la Croisade. Il a établi des liens entre des articles et des documents archivés dans le « Memex » et les a enregistrés. Quelques années plus tard, il discute avec un ami et il a une intention de lui expliquer la supériorité de l’arc turc en se servant des liens enregistrés. Il saisit « quelques touches » pour les récupérer dans l’archive22. Si ces quelques touches évoquent la saisie d’un code, bien qu’il soit question ici de recherches associatives par mots-clés, elles doivent être mnémoniques, d’après la discussion menée auparavant, et il s’agira d’avoir mémorisé le code.
On comprend, par la relecture du texte de 1945, que Bush ne renonce pas à l’indexage, malgré la conscience qu’il a de ses défauts. Ainsi, Nelson n’a pas tort de manifester du respect envers Bush comme inventeur de l’idée d’indexage. Il laisse la porte ouverte au recours à l’indexage, certes, mais cette idée d’indexage ne signifierait pas un automatisme complet comme chez Nelson. En fait, comme le montre le scénario de l’arc turc, l’indexage constitue un moment permettant de sauvegarder le mnémonique. Il faudrait comprendre ce terme mnémonique au sens le plus large ; il ne concerne pas seulement la mémoire mentale, mais le mental tout court ; il signifie donc le moment où les êtres humains s’engagent dans l’organisation des savoirs humains. Aussi pourrions-nous observer une dualité entre le mécanique et le mental à l’origine de l’hypertexte.
80Organiser les savoirs humains :
le cas de Michel Foucault
Ayant en commun l’idée d’organiser des savoirs humains surabondants, les deux considérations que nous avons présentées nous révèlent deux aspects de l’hypertexte : le mécanique et le mental. La finalité des recherches de Nelson et de Bush vise à automatiser l’organisation de nos savoirs ; Nelson croit que l’indexage servirait à la réalisation d’une automatisation complète, alors que Bush conserve la possibilité d’un moment où les êtres humains pourraient effectuer une sélection non-machinale. Comme l’idée de Nelson provient de Bush, on a le moyen de comprendre que son idée est inclusive à celle de Bush. Ce raisonnement nous amène à mettre en relief les deux aspects fondamentaux de l’hypertexte.
Au lieu d’accepter la dualité dont on a parlé, un des premiers protagonistes des études hypertextuelles, George P. Landow, semble plutôt prévoir un changement total pour l’avenir du texte23. Landow parle de deux types possibles d’hypertexte : l’un consiste à constituer un corpus de commentaires ou de notes autour d’un texte principal, et l’autre à établir une archive de documents autour d’une thématique principale. Ces deux emplois témoignent de la possibilité de réaliser l’hypertextualisation de textes existants. Cela revient à remplacer totalement les textes par l’hypertexte24.
Landow cherche à attester, dans son œuvre, une convergence entre ce qu’il appelle la « théorie critique » et l’hypertexte. Il cite à cet effet plusieurs philosophes et critiques littéraires, parmi lesquels figure Michel Foucault. Nous ne pouvons pas oublier le fait que Foucault développe sa thèse autour de l’idée d’un moment humain dans l’organisation des savoirs humains.
Selon Georges Canguilhem, Foucault démontre, au moyen d’une archéologie, les discontinuités entre le xvie et le xviie siècle ainsi qu’entre le xviiie et le xixe et met en relief l’existence d’« un code de mise en ordre 81de l’expérience humaine25 » pour la culture de chaque période discontinue. À cette fin, Foucault dispose deux figures de quadrilatères sur une page insérée entre la première et deuxième partie de l’œuvre, qu’il intitule l’une « xviiexviiie siècles » et l’autre « xixe siècle26 ». Les comptes rendus principaux se passent de ces figures, certes, mais celles-ci jouent un rôle fondamental pour la discussion épistémologique dans cette œuvre27.
Foucault esquisse, d’abord, le quadrilatère du langage à l’époque classique : « Les quatre théories – de la proposition, de l’articulation, de la désignation et de la dérivation – forment comme les segments d’un quadrilatère », explique-t-il28. Les deux sommets théoriques forment un segment et les deux segments s’opposent deux à deux ; les segments entre « proposition29 » et « dérivation », « articulation » et « désignation » qui forment deux pairs en s’opposant, constituent « le moment métaphysiquement fort de la pensée des xviie et xviiie siècles » et « les rapports entre articulations et attribution, désignation et dérivation […] définissent pour cette pensée le moment scientifiquement fort30 ».
Ces deux moments composés de quatre segments servent aussi de figure de l’époque moderne du xixe et xxe siècles. Foucault recourt à la figure du quadrilatère pour parler de la discontinuité épistémologique entre les époques classique et moderne : « Quant à la mutation qui s’est produite vers la fin du xviiie siècle dans toute l’épistémè occidentale, il est possible dès maintenant de la caractériser de loin en disant qu’un moment scientifiquement fort s’est constitué là où l’épistémè classique connaissait un temps métaphysiquement fort ; […]31. ». Foucault annonce même la destruction du « “quadrilatère” anthropologique » pour « penser à nouveau32 ». Cela témoigne combien Foucault accorde plus qu’on ne le pense de valeurs à ces figures.
82À propos de la reconfiguration des quadrilatères de l’époque classique à l’époque moderne, Foucault inverse les fonctionnements de deux segments, comme on l’a vu dans la citation en haut ; mais ce chiasme ne produit aucune modification dans le fonctionnement des deux moments scientifique et métaphysique. Le moment scientifique implique deux processus mécaniques différents : un segment entre « proposition » et « articulation » et un autre entre « désignation » et « dérivation ».
Le premier segment entre « proposition » et « articulation » suppose le moment de l’analyse du « fonctionnement représentatif des mots les uns par rapport aux autres33 » ; l’autre segment entre « désignation » et « dérivation » implique le moment de l’étude de « la manière dont les mots désignent ce qu’ils disent, d’abord dans leur valeur primitive (théorie de l’origine et de la racine), puis dans leur capacité permanente de glissement, d’extension, de réorganisation (théorie de l’espace rhétorique et de la dérivation)34 ». Foucault justifie ce moment scientifique de deux segments, en prenant les exemples de Destutt de Tracy, Condillac, l’école de Port-Royal, Adam Smith, Rousseau et Turgo, parmi d’autres. Ce moment scientifique se caractérise par l’effort d’effectuer une « énumération complète35 » ou d’établir une liste de conversion entre un mot et un sens, un mot et une origine. Pour la réalisation de cette liste complète, la conversion se réalisera de façon automatique.
Quant au moment métaphysique, c’est au mental que l’on a affaire. Foucault conclut sa réflexion par l’idée de grammaire générale : « pour qu’il y ait de dérivation des mots à partir de leur origine, pour qu’il y ait déjà appartenance originaire d’une racine à sa signification, pour qu’il y ait enfin un découpage articulé des représentations, il faut qu’il y ait, dès l’expérience la plus immédiate, une rumeur analogique des choses, des ressemblances qui se donnent d’entrée de jeu. […] Si le langage existe, c’est qu’au-dessous des identités et des différences, il y a le fond des continuités, des ressemblances, des répétitions, des entrecroisements naturels. La ressemblance, qui est exclue du savoir depuis le début du xviie siècle, constitue toujours le bord extérieur du langage : […]36 ». Foucault distingue, d’ailleurs, quatre types essentiels de ressemblances constituant le savoir 83avant l’époque classique : « convenientia », « aemulatio », « analogie » et « sympathies37 ». Le comportement des « sympathies » avec son opposé, l’antipathie, témoignerait de l’importance des opérations mentales fondées sur la ressemblance dans la constitution des savoirs humains.
Il apparaît ainsi que les deux moments machinal et mental soient au fondement de l’organisation des savoirs humains. Or, il est à noter que ces deux moments composent, de fait, la base technique du web. Les sites web actuels sont en effet constitués du HTML38, celui-ci se développant sur le modèle d’un autre langage de balisage nommé SGML39.
Dans le cas du SGML, si un texte est balisé dans ce langage, on a besoin de ce qu’on appelle DTD (Document Type Definition). On sait d’autre part que des balises sont au centre de l’écriture en HTML comme en SGML. Mais on méconnaît souvent que les balises elles-mêmes doivent être définies par la DTD et que leur définition se réalisera, non pas de façon automatique, mais à l’issue de décisions prises par des êtres humains appartenant à des comités compétents.
D’ailleurs, depuis l’arrivée des systèmes conviviaux comme blog, microblog et wiki, les usagers ont perdu la conscience de l’écriture d’un hypertexte. Car nous n’avons plus besoin de recourir à des balises pour nous exprimer au moyen de l’hypertexte : les balises ont disparu pour nous. En fait, celles-ci sont cachées sous le système intermédiaire servant à traduire et à réaliser leurs commandements par de simples clics sur des boutons affichés sur l’écran. Pour nous, tout se passe de façon automatique sans que nous ayons connaissance du processus.
Mais, comme on l’a indiqué en haut, avant que cette procédure soit fonctionnelle, il est nécessaire de préparer la DTD. Par exemple, si l’on fait référence à la DTD pour HTML 4.01, on trouve dans les commentaires intérieurs au document trois DTD différentes40. Ceci 84prouve qu’on a besoin non pas d’une seule mais de plusieurs DTD, et que celles-ci doivent être préparées selon certaines finalités. Aussi, retrouve-t-on ici la nécessité d’une coexistence des moments humain et machinal dans la réalisation du web.
Conclusion
À partir de l’étude des origines de l’hypertexte, nous avons abordé la question de l’organisation des savoirs humains : l’hypertexte est conçu dès le début par ses inventeurs afin d’organiser un volume excessivement important de savoirs. Bien que les deux inventeurs décrivent chacun leur conception hypertextuelle à leur manière, ces deux conceptions cachent une condition essentielle pour réaliser l’hypertexte, à savoir une présence humaine. En effet, l’automatisation ne se fait jamais seule, les êtres humains la préparent et collaborent à sa réalisation.
Les deux moments machinal et humain sont nécessaires pour l’organisation des savoirs humains au moyen de l’hypertexte. Ceci étant posé, le rapport entre ces deux moments devrait être beaucoup plus visible pour tout le monde. La transparence seule permettrait d’éviter des erreurs possibles. Même si, comme l’écrit Foucault, « l’homme s’effacerait, comme à la limite de la mer un visage de sable41 », l’homme devrait apparaître au moins une fois au cours de l’organisation des savoirs au moyen de l’hypertexte, avant de disparaître.
Shinya Shigemi
Université de Nagoya
85Bibliographie
Baran, Paul (1964). On Distributed Communications. Santa Monica, California : The RAND Corporation. 11 volumes.
Bellour, Raymond (1966). « Michel Foucault, “les Mots et les Choses” », dans Les Lettres françaises, 21 janvier, 1966, p. 3 ; repris dans Philippe Artières et als. éd., Les Mots et les Choses de Michel Foucault. Regards critiques 1966-1968. Caen : Presses Universitaires de Caen – IMEC éditeur, 2009, p. 45-47.
Burgelin, Pierre (1967). « L’Archéologie du savoir », dans Esprit, mai, 1967, p. 843-861 ; repris dans Philippe Artières et al. éd., Les Mots et les Choses de Michel Foucault. Regards critiques 1966-1968. Caen : Presses Universitaires de Caen – IMEC éditeur, 2009, p. 221-245.
Bush, Vannevar (1945). “As We May Think”, au site TheAtlantic.com, URL : http://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/. Première publication dans The Atlantic Monthly, July 1945.
Canguilhem, Georges (1967). « Mort de l’homme ou épuisement du cogito ? ». Critique, no 242, 1967, p. 599-618.
Darpa (1981). A History Of The ARPANET. The First Decade. Report No. 4799. Defense Advanced Research Projects Agency.
Dreyfus, Hubert L. & Rabinow, Paul (1982). Michel Foucault. Beyond Structuralism and Hermeneutics, 2d edition. Chicago : The University of Chicago Press.
Foucault, Michel (1966). Les Mots et les Choses. Paris : Éditions Gallimard.
Hickson, Ian, et al. (2014) « A Vocabulary and associated APIs for HTML and XHTML », W3C Recommendation 28 October 2014, au site W3C : http://www.w3.org/TR/html5/ [consulté au 1 mars 2015].
Landow, George P. (1992). Hypertext. The Convergence of Contemporary Critical Theory and Technology. Baltimore : The Johns Hopkins University Press.
Landow, George P. (2006). Hypertext 3.0. Critical Theory and New Media in an Era of Globalization. Baltimore : The Johns Hopkins University Press.
Nelson, Theodore (1965). “A File Structure For The Complex, The Changing And The Indeterminate”. Acte de “ACM 20th National Conference”, p. 84-100.
Pieters, Simon (2014). « HTML5 Differences from HTML4 », W3C Working Group Note 9 December 2014, au site W3C : http://www.w3.org/TR/html5-diff/ [consulté au 1 mars 2015].
Reggett, Dave et al. (1999) « HTML 4.01 Specification », W3C Recommendation 24 December 1999, au site W3C : http://www.w3.org/TR/REC-html40/cover.html [consulté au 1 mars 2015].
86Rheingold, Howard (1985). Tools For Thought. The History and Future of Mind-Expanding Technology. New York : Simon & Schuster. Reprinted in 2002, MIT Press.
1 Howard Rheingold, Tools For Thought. The History and Future of Mind-Expanding Technology, New York, Simon & Schuster, 1985 ; reproduit à MIT Press, en 2002.
2 Paul Baran, On Distributed Communications, Santa Monica, California, The RAND Corporation, 11 volumes, 1964.
3 A History Of The ARPANET. The First Decade, Report No. 4799, Defense Advanced Research Projects Agency, 1981, p. ii-6.
4 Theodor Nelson, “A File Structure For The Complex, The Changing And The Indeterminate”, dans Acte de “ACM 20th National Conference”, 1965, p. 84.
5 Ibid., p. 85.
6 Ibid., p. 96.
7 Ibid., p. 87.
8 Ibid., p. 88.
9 Ibid., p. 97.
10 Ibid., p. 96.
11 Ibid., p. 85.
12 Vannevar Bush, Vannevar, “As We May Think”, dans The Atlantic Monthly, July 1945. L’article est consultable au site Web : www.theatlantic.com (URL : http://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/, consulté au 4 février, 2015). C’est ainsi que nous ne fournirons pas la pagination, mais le chiffre de chapitres, comme références à cet article.
13 Nelson, op. cit., p. 86.
14 Bush, op. cit., « Introduction ».
15 Bush, op. cit., « chapitre 6 ».
16 « The human mind does not work that way. It operates by association. With one item in its grasp, it snaps instantly to the next that is suggested by the association of thoughts, in accordance with some intricate web of trails carried by the cells of the brain. » (Bush, « chapitre 6 » : nous soulignons.)
17 Nelson, op. cit., p. 85.
18 Ibid., p. 85.
19 Ibid., p. 98.
20 Bush, op. cit., « chapitre 6 ».
21 Ibid.
22 Ibid.
23 George P. Landow, Hypertext. The Convergence of Contemporary Critical Theory and Technology, Baltimore, The Johns Hopkins University Press, 1992, p. 70. Voir aussi : George P. Landow, Hypertext 3.0. Critical Theory and New Media in an Era of Globalization, Baltimore, The Johns Hopkins University Press, 2006.
24 Ibid., p. 35.
25 Georges Canguilhem, « Mort de l’homme ou épuisement du cogito ? », dans Critique, no 242, 1967, p. 599-618.
26 Michel Foucault, Les Mots et les Choses, Paris, Éditions Gallimard, 1966, p. 225.
27 Hubert Dreyfus & Paul Rabinow, Michel Foucault. Beyond Structuralism and Hermeneutics, 2d edition, Chicago, The University of Chicago Press, 1982 ; Philippe Artières et al., Les Mots et les Choses de Michel Foucault. Regards critiques 1966-1968, Caen, Presses Universitaires de Caen – IMEC éditeur, 2009.
28 Foucault, op. cit., p. 131.
29 Foucault hésite sur la terminologie entre « attribution » et « proposition » ; dans le schéma, il choisit le terme d’« attribution ».
30 Foucault, op. cit., p. 219.
31 Ibid., p. 219.
32 Ibid., p. 353.
33 Ibid., p. 106.
34 Ibid., p. 106-107.
35 Ibid., p. 69.
36 Ibid., p. 135.
37 Ibid., p. 32-40.
38 Nous connaissons de grandes différences entre HTML4 et HTML5, la dernière version. Notre discussion se limite à HTML4. Cf. Sur HTML 4.01, voir Dave Reggett et al., « HTML 4.01 Specification », W3C Recommendation 24 December 1999, au site W3C (URL : http://www.w3.org/TR/REC-html40/cover.html [consulté au 1 mars 2015]), « chapitre 3 » ; sur HTML 5, voir Ian Hickson, Ian, et al., « A Vocabulary and associated APIs for HTML and XHTML », W3C Recommendation 28 October 2014, au site W3C : URL : http://www.w3.org/TR/html5/ [consulté aussi au 1 mars 2015].
39 Standard Generalized Markup Language, ISO 8879, 1986.
40 Simon Pieters, « HTML5 Differences from HTML4 », W3C Working Group Note 9 December 2014, au site W3C (URL : http://www.w3.org/TR/html5-diff/ [consulté au 1er mars 2015]) ; Reggett et al., op. cit.
41 Foucault, op. cit., p. 398.
- CLIL theme: 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
- ISBN: 978-2-406-06193-9
- EAN: 9782406061939
- ISSN: 2497-1650
- DOI: 10.15122/isbn.978-2-406-06193-9.p.0069
- Publisher: Classiques Garnier
- Online publication: 09-29-2016
- Periodicity: Biannual
- Language: French