Aller au contenu

Classiques Garnier

Prolégomènes à des infrastructures intellectives pour l’édition numérique scientifique

  • Type de publication : Article de revue
  • Revue : Études digitales
    2017 – 2, n° 4
    . Immersion
  • Auteur : Noyer (Jean-Max)
  • Résumé : Le développement des mémoires numériques dans le domaine des sciences, couplé avec la crise des humanités et la difficulté de faire apparaître les relations internes des savoirs, imposent de nouvelles exigences aux infrastructures de l’édition. Sont en jeu les écritures du web, les technologies intellectives qui rendent productifs ces nouveaux « milieux » d’intelligence. L’article met en évidence les principaux points d’application des forces pour surmonter l’encyclopédisme en éclats.
  • Pages : 159 à 206
  • Revue : Études digitales
  • Thème CLIL : 3157 -- SCIENCES HUMAINES ET SOCIALES, LETTRES -- Lettres et Sciences du langage -- Sciences de l'information et de la communication
  • EAN : 9782406092889
  • ISBN : 978-2-406-09288-9
  • ISSN : 2497-1650
  • DOI : 10.15122/isbn.978-2-406-09288-9.p.0159
  • Éditeur : Classiques Garnier
  • Mise en ligne : 06/08/2019
  • Périodicité : Semestrielle
  • Langue : Français
  • Mots-clés : Humanités digitales, milieu, écologie des savoirs, infrastructures, Web sémantique, hybridation, hypertexte, archive
159

Prolégomènes
à des infrastructures intellectives
pour lédition numérique scientifique

Introduction

Lédition numérique scientifique est consubstantielle au développement du réseau Internet. La question des infrastructures accompagne le bouillonnement des Humanités Digitales pour reprendre lexpression de Pierre Mounier1 et la transformation profonde de la variation des couplages cerveaux-écritures-technologies intellectives. Elle va de pair avec le développement et lutilisation dans la plupart des domaines et disciplines de traitements algorithmiques liés avec la croissance des empiries numériques. Cette irrésitible montée de lalgorithmie est à présent notre milieu2.

Françoise Thibault (DGRI et Bertrand Jouve (CNRS, InSHS) ont dans leur rapport de 2012 dressé un premier tableau des infrastructures « molaires » de recherche en sciences humaines et sociales. (Rapport du groupe Infrastructures de lAlliance Athéna)3. Dans le même temps nous avons commencé à explorer certaines des nouvelles transformations affectant le champ des savoirs et de ses conditions de « production-circulation-exploitation ». En effet la plasticité des écritures associée à la plasticité des mémoires hypertextuelles-hypermédias en réseaux, a 160engagé assez rapidement linvention associée de nouvelles « technologies intellectives ». La différenciation des intelligences collectives a accompagné le processus et la fabrication des nouveaux agencements collectifs dénonciation des savoirs, a pris des formes de plus en plus hétérogènes.

Dans quelle mesure cela était-il en train (et continue) de transformer les « milieux4 » dintelligence, la capacité à remonter vers la fabrication des problèmes, dans quelle mesure, les pratiques analogiques, abductives, transductives, ont-elles été (et continuent-elles) affectées, les modes de construction de la preuve transformés ? Et ce dans le cadre de pratiques décriture-lecture en constante évolution ? Enfin la production de vastes empiries numériques (production-capture de traces sémantiques, comportementales, temporelles complexes, spatiales-géolocalisées) que nous laissons à loccasion de nos pratiques dans le plissement numérique du monde, a une influence profonde dans le domaine des sciences en général et des SHS en particulier. Mise en évidence (explicitation) certes partielle, mais importante, du vaste réseau de relations internes dont nous sommes lexpression et lexprimé, nouvelles pratiques cartographes des processualités dont nous sommes tissés, dentrelacs de plus en plus étroits entre Mathématique et Sciences humaines, entre Raison Statistique et Prédiction. Ainsi de nouvelles relations semblent constituer la trame dune alliance que lon avait perdue depuis Kant entre les sciences (mathématique-biologie-cerveau-physique) la Philosophie et les SHS.

Dans ce contexte et parce que le monde des savoirs paraît constitué de lignes de forces et de champs de plus en plus divergents, la question dun nouvel encyclopédisme se pose et ce dautant plus que les grandes crises en cours de nos écologies radicalisent nos tourments face à létrange étrangeté de la « nécessité de la Contingence » et face à lexigence dune complexité sans précédent des hétérogènes. Nous avons appelé cela « lEncyclopédisme en éclats5 » comme nouvelle Frontière, comme agencement où la question de la productivité des frontières et 161leur différenciation sont centrales. Nouvelles manières dhabiter les dissensus et leurs rapports, les controverses, le cosmopolitisme dans les savoirs (y compris scientifiques) et la « Traduction Générale » sont là comme enjeux cognitifs mais aussi stratégiques.

Cest la raison pour laquelle en prenant pour colonne vertébrale incertaine la question du développement de lédition numérique scientifique (open ou non), nous proposons de mettre laccent sur les points de faiblesse quune certaine répétition des modes éditoriaux impose (encore une fois que les modes soient open ou non). La persistance voire le maintien dune contre-révolution de lordre des essences dans le champ documentaire général contre les puissances de la Renaissance engendrée par les écritures hypertextuelles, leurs baroques labyrinthes leur pyrotechnie conceptuelle, est à lœuvre.

Nous proposons aussi de mettre en évidence des points de bifurcation, des écritures et combinatoires qui font face à la communauté des œuvres comme « incomplétude en procès de production », aux hétérogénèses qui la parcourent. Pour viser une édition processuelle faisant place aux dissensus et controverses, et qui mettrait la variation et la navigation dans des espaces à n-dimensions, sinon au cœur du processus éditorial, en tout cas de ne pas la laisser sur les marges, pour incarner encore ce que Michel Foucault déclarait dans un entretien avec Didier Éribon, « vous savez à quoi je rêve ? Ce serait de créer une maison dédition de recherche. Je suis éperdument en quête de ces possibilités de faire apparaître le travail dans son mouvement, dans sa forme problématique. Un lieu où la recherche pourrait se présenter dans son caractère hypothétique et provisoire6 » . De la « Derrida base7 » au « deconstructed journal8 » en passant par le « livre bombe » de Foucault encore9 et le 162« Liquid Journal » et les modes dédition du même nom10, sortir des modes classificatoires essentialistes, fermés. En suivant, dans le creusement des modes décritures, dans lexploitation des corpus des savoirs scientifiques en particulier les modes algorithmiques et lutilisation dune mathématique ciblant le qualitatif11, nous donnerons à voir à la fois la persistance des modes représentatifs des métriques qui vont avec, mais aussi leur productivité (connectivité, traductibilité, ouvertures), leur puissance à générer des devenirs au cœur de lactivité de recherche, au cœur de la pensée12. La question du dedans-dehors des corpus est plus que jamais au centre ou plutôt, la possibilité daller à cheval sur les zones frontières de la recherche, de travailler dans les zones dindétermination où la pensée puise et ne sépuise pas.

Cette article tentera dindiquer que nombre de voies de développement sont dans cette tension et nous montrerons que des technologies intellectives hybrides pourraient faire face à ces problèmes dans des milieux dintelligence compliqués, pleins dhétérogenèses.

Comment être « transversal et traversé » ?

La manière dont nous parcourons les dynamiques de ces configurations techno-socio-cognitives sera aimantée par la question de savoir comment accroître la « transdiciplinarité-transversalité » en sciences et définir plus 163précisément les buts et contraintes pour les infrastructures de lédition scientifique numérique aujourdhui, pour un « encyclopédisme fragmenté », des points de vue, des réseaux-rhizomes, des morphogenèses, dit autrement et plus exactement un a-encyclopédisme ouvert et ne cessant de créer les conditions de son propre dépassement, de son propre effondrement. Un encyclopédisme comme Machine Anaphorique.

La mise en crise des trois écologies, (environnement-ressources, esprit et socius)13, la question de la possibilité de faire émerger de nouveaux modes dexistence, dans le cadre de changements affectant les processus de différenciation internes au système des relations (Bateson 1986 ; 1977) entre les êtres, les nations, les cultures, rendent plus nécessaire que jamais que nous nous interrogions sur ce qui affecte les conditions dune nouvelle Renaissance à partir de la transformation du système des savoirs, que ces savoirs soient scientifiques, religieux. Dans ce cadre, la question de lEsprit est capitale et la recherche dune ou plusieurs « noopolitiques14 » susceptibles daider à la mise en place de nouvelles conditions matérielles et idéelles en vue de la dite Renaissance permettant de faire face aux crises et défis évoqués plus haut, est traversée par les transformations des systèmes décritures, des dispositifs de mémoires. Il ne sagit nullement ici de poser la question de la Renaissance à partir dun point de vue techniciste, mais bien au contraire de laborder à partir de la variation du « couplage cortex-silex15 » des effets de ladoption des nouveaux « couplages cerveaux, technologies intellectuelles16 » sur les collectifs de pensée et les complexes relationnels.

Le développement de la strate anthropologique Internet est à présent une partie importante de notre milieu associé et lintérêt que nous devons porter à la créativité, au sens de A. N. Whitehead17 tout autant et même peut-être plus quà linnovation même, ne cesse de grandir. Si nous voulons éviter de voir se développer les symptômes morbides, il est 164urgent de penser la Créativité pour elle-même au cœur de lensemble ouvert des agencements des savoirs.

Vers une écologie générale des savoirs ?

La question des humanités digitales risque dêtre bien mal engagé, si lon naccorde de limportance quau second terme. Il y a certes lirruption des mémoires hypertextuelles-hypermédias en réseaux, des écritures et des algorithmes qui vont avec, la montée du quatrième paradigme18 mais il y a aussi accompagnant cette irruption ce que lon a appelé la crise des humanités, ce que lexpression « les humanités » recouvre. À partir du milieu des années soixante, sont ici et là formulées interrogations et inquiétudes sur ce que lon appelle tantôt les humanités, tantôt les sciences humaines et sociales, ces expressions ne se valant pas cependant.

Énoncée de manière encore générale, la transformation des savoirs, de leurs modes de production, différenciation-fragmentation mais encore de circulation, les rapports entre eux et la fabrication des problèmes, tout cela pose à nouveau la question de comment « encyclopédier » à nouveau les savoirs specialisés, éparpillés, de comment faire émerger un nouveau rationalisme et donc une nouvelle culture, surmontant aussi ce que Bruno Latour en particulier nomme le « grand partage19 ».

165

Les agencements pour de nouvelles humanités

Les divers problèmes liés à lévolution des organisations des connaissances, les diverses incarnations du web et ses devenirs, les transformations des systèmes socio-cognitifs, sont pris dans le creusement intensif des collectifs de pensée. Et la mise en place, certes incertaine, des conditions de développement et de propagation, stabilisée dans le temps, de ce qui pourrait constituer les contours dune nouvelle culture générale, ouverte et processuelle, constitue un enjeu majeur pour ceux qui souhaitent définir les formes dun nouveau rationalisme ouvert, expression et exprimé à la fois, des dissonances culturelles, philosophiques et religieuses, des dissonances issues de « linégal développement » du rationalisme attaché à la sphère technoscientifique de lOccident et du vaste système de relations internes en quoi consistent les agrégats dintelligences collectives. Agrégats et intelligences qui constituent la trame dun vaste et très différencié tissu sans couture voilant les faces du monde.

Une des questions possibles pourrait être celle-ci : quel système du savoir est en train de se développer aujourdhui, à partir de la sphère scientifique et technique et de ses rationalités ? Pour reprendre lanalyse de Bertrand Saint Sernin, « lensemble des savoirs va-t-il continuer de se présenter sous la forme dun agrégat de spécialités dont les relations internes demeureront imprécises ? Ou bien leur unité organique est-elle en train de devenir visible ? Dans la première hypothèse, nous aurons au mieux une classification des sciences ; dans la seconde, nous disposerons dun système du savoir. Chacun des deux partis a ses avocats : dans le passé, le premier a eu pour défenseurs Mach et Duhem ; le second, Cournot et Whitehead ». (Saint Sernin, 2007)20.

166

Les plissements du savoir

Les réflexions sur limportance de ces infrastructures sont relativement nombreuses. Toutefois elles se sont concentrées sur les problèmes du stockage, de laccès, de linteropérabilité et des conditions économiques générales et sur les questions – très souvent biaisées – liées à la légitimité, valeur scientifique des productions. Dès 2004 le rapport de la « Commission on Cyberinfrastructures for the Humanities and Social Sciences Berkeley » sous la direction de Michael K. Buckland avait mis laccent sur un certain nombre de contraintes et en particulier sur le rôle central des metada : « Combining diverse digital resources depends on an interoperable infrastructure of metadata. This is as much infrastructure as hardware or policies. But national standards for format and content of these tools dont exist, even for gazetteers ! An investment in the development of scholarly “best practices” is needed21 ».

Notre réflexion semble reprendre certaines de ces perspectives mais elle se déploie dans le cadre du plissement numérique des savoirs, des intelligences et en particulier des intelligences dites scientifiques ; comme nouvelle écologie de lintellelect, de lesprit.

Elle vient à la suite de nombreux efforts publics et privés, nationaux, européens et mondiaux pour définir et construire « des infrastructures » pour la recherche en général et pour la recherche en sciences humaines et sociales en particulier.

Les manières de « fabriquer » ces infrastructures dependent certes des modèles déconomies politiques des savoirs qui leur servent de milieux. Entre modèles centralisateurs, planificateurs et modèles décentralisés, a-centrés, entre modèles hybrides plus ou moins complexes. Ces infrastructures se différencient aussi selon la manière dont elles conçoivent les contraintes dinteropérabilité, les types de normes, sous la double contrainte générale de respecter à la fois lhétérogénéite des champs de recherche, leur singularité et de permettre leurs articulations et leurs 167traductions relatives. Elles se différencient encore selon quelles sont molaires ou moléculaires et selon leur rapport aux devenirs minoritaires des sciences et des champs de recherches quelles laissent vivre ou favorisent.

On sait de manière générale et pour suivre ici Bruno Latour, Geoffrey C. Bowker22, L. Starr, limportance dune infrastructure informationnelle. Starr et Ruhleder ont montré aussi quune telle infrastructure présente cinq caractéristiques majeures :

elle sinscrit elle-même dans un système enchevêtré et distribué dautres structures ;

elle est transparente (« elle na pas à être réinventée à chaque fois » ;

elle est étendue et transversale ;

elle a une dimension essentiellement collective ;

elle repose sur un ensemble de conventions et pratiques concrètes dont elle est à la fois lexpression et lexprimé.

Que les intelligences soient toujours déjà machinées, que les savoirs émergent fussent-ils les plus singuliers au milieu dagencements collectifs plus ou moins importants, que les technologies intellectives, les dispositifs, les espaces et les moyens de léchange et de circulation des traces… que tout cela ait été présent depuis très longtemps ne change rien au fait que depuis le début du xxe siècle les conditions de production, circulation, lincessant travail de commentaires et de ré-écritures, la construction des preuves et le travail sur les données (les obtenues), les variations théoriques affectant paradigmes et fabrication-invention des problèmes se sont transformés en profondeur. Il en va de même pour les conditions des modes de lecture, décriture, des conditions pour lattention23.

168

Le travail
« par » et « dans » les infrastructures

Indexer, Classer, Cataloguer, Relier, Cartographier, Naviguer… sont toujours au cœur des pratiques cognitives. Ces fonctions sont mêmes amplifiées, elles se sont différenciées et reposent, aux échelles où elles sont à louvrage, sur des écritures, des algorithmes plus ou moins complexes. Dès la naissance du processus dit des archives ouvertes visant à transformer le stockage et laccès à la littérature scientifique sous la forme dArXiv24. Paul Guinsparg son créateur insiste sur les effets de ce nouveau type dinfrastuctures. Des effets « dune participation spontanée maximale, nous pouvons donc nous attendre non seulement à une interopérabilité de plus en plus automatisée entre les bases de données et à une disponibilité croissante de ressources en ligne pour la collecte algorithmique – articles, jeux de données, notes de cours, multimédias et logiciels (des balises, des liens, des commentaires, des corrections, des contributions à des ontologies et des liens à forte intensité dexpertise, tous activement organisés, deviendront de plus en plus importants, agissant pour coller des bases de données et des textes dans une structure de connaissances plus puissante25. »

Et il continue, le but est bien « la création dune structure de connaissance semi-supervisée et auto-entretenue, pilotée par des concepts synthétiques, débarrassée de toute redondance et de toute ambiguïté, recherchée, authentifiée et mise en avant pour la nouveauté. Notre navigation dans la littérature sera alors bien plus complète, guidée par des algorithmes permettant daccéder à nos propres comportements et à ceux des utilisateurs ; et notre lecture (sera) guidée par des liens vers des ressources explicatives et complémentaires liées à des mots, des équations, des figures et des données26. »

169

Comme depuis toujours « la communauté des œuvres, et celles des sciences sont comme incomplétudes en procès de production27 et sous les conditions du Numérique elles se présentent comme un vaste domaine ouvert de relations internes, domaine où la notion même dobjet documentaire numérique considéré du point de vue des essences ne peut plus opérer et où trajectoires et morphogenèses des relations, transformations et déformations des relations sont à la source de toutes les sémiotiques, entre métastabilité et fluidité, entre émergence et effacement, entre attraction et évanescence.

Des nœuds et des liens, des langages de balisage de plus en plus puissants et souples jusquaux ontologies (« all the way down » ?) fabriquées de relations spécifiques et de leur cortège de traductions et de frontières, dinterstices et de fentes pour des pratiques cartographes ouvrant à la fois la création de nouvelles connexions et ouvertures temporelles infiniment variables, faisant exploser les libertés analogiques au cœur des « milieux des sciences ».

Doù, au passage, la nécessité dune conception documentaire renouvelée où les documents sont pensés et traités comme « complexes relationnels », flux et évènements. Les dits complexes relationnels se définissant par leur puissance de connectivité, de traduction, par leurs pouvoirs attracteurs.

Chaque document est donc une variété de relations associée à une capacité combinatoire. Il se définit par le système de relations plus ou moins stable dont il est à la fois lexpression et lexprimé. De manière différente, on peut dire quun document est une écologie avec ses frontières + « n-points de vue » qui expriment lhistoire de son dehors, cest-à-dire des plis et des déplis qui ne cessent de le transformer. Il est donc le fruit dun couplage entre son écologie interne et son écologie externe, entre ce qui converge vers lui, ou se laisse capturer et ce qui sort de lui. Cest la raison pour laquelle lexpression « complexe relationnel » qui a aussi pour corrélat une véritable énergétique intellectuelle, nous paraît rendre compte de la transformation.

170

Les écritures du Web

Dès le début des mémoires hypertextuelles de lédition scientifique, est inscrit son devenir sémantique. Et la formulation par Tim Berners Lee28 de la question encyclopédique, des nouvelles écritures pour prendre en charge modes de lectures et de navigation dans les savoirs, vient relativement rapidement après lexplosion de lédition électronique et lorsquil expose le projet du Web sémantique il le résume sous la forme de son célèbre “Cake”.

sweb-stack.gif 0003100BMacintosh HD BBA748FD:

Fig. 1 – Le « Cake » de TIM Berners Lee.

Dans ce schéma de Tim Berners Lee il est décrit les besoins du Web sémantique, on trouve une organisation en couches de différents langages : dans le premier niveau, la norme UNICODE de codage des caractères qui simpose pour toutes les langues du monde et le mode dadressage des pages (Unified Resource Identifier) du Web déjà en œuvre pour le Web normal forment le socle du Web semantique.

171

La couche suivante, « XML + NS + xml schema », fournit les langages nécessaires à lécriture des documents sur le Web, à savoir, le langage XML, les espaces de noms (NS pour name space) pour permettre de former des groupes de balises indépendants et uniques (en préfixant les noms des balises) et les Schéma XML qui permettent de décrire la structure dun document XML et den typer son contenu. À ce niveau, on a les bases nécessaires (en termes de langages normés) à la mise en place et léchange de documents textuels sur le Web. La couche « RDF + rdf schema » correspond à un changement de paradigme annoncé : elle permet de passer dun document à des données (de self descriptive document à data). Cette couche permet de décrire des concepts et des relations entre eux (avec des triplets, {concept, relation, concept}) et donc de décrire des informations complexes sur le monde. Ces informations peuvent être associées à un document grâce à ce même langage et être des métadonnées – appelées aussi annotations formelles – de ce même document. En dautres termes, elle assume ce que lutilisation des Schémas XML de la couche précédente ne fait pas totalement, à savoir le remplacement du texte par sa représentation conceptuelle.

La couche « Ontology vocabulary » est, comme son nom ne le précise pas complètement, la fourniture des langages qui permettent de représenter des ontologies et de raisonner dessus (en particulier, faire des inférences sur les héritages de propriétés de concepts grâce à la relation de subsomption et sur les types de concepts).

On choisit ainsi son langage en fonction des besoins dexpressivité et de décidabilité. Les ontologies exprimées en OWL fournissent des métadonnées pour la couche précédente. Les 3 couches suivantes, « logic », « proof », « trust » ne sont pas encore normalisées et permettraient respectivement, a) dappliquer explicitement des règles dinférences que lon se sera donné sur les concepts de lontologie, b) de se donner les mécanismes nécessaires à faire la preuve des algorithmes et c) de se donner les mécanismes nécessaires à calculer et exprimer la croyance en une assertion au sein dune application. Ces couches reprennent les intentions de certains travaux de lIntelligence artificielle. Enfin, le rectangle de droite représente les méthodes de signatures électroniques et (ce nest pas sur cette version du schéma) la disponibilité de méthodes de cryptage. Ces deux addenda complètent le « cake » pour fournir les mécanismes déchange de documents et données de tous types29.

172

Le Web sémantique propose des normes de codage logique des informations. Son but est de constituer une sorte de système dexploitation des données du Web qui serait principalement au service des moteurs de recherche et des « agents intelligents ». En bref, comme lindique le Cake, le Web sémantique repose sur un certain nombre doutils, de langages de balisage. Le langage XML (eXtended Mark-up Language), dérivé du langage SGML de Charles Goldfarb, autorise la description de la structure des données (RDF, Ressource Description Framework) et permet le catalogage des données du Web. Le langage OWL (Ontology Web Language) est utilisé pour décrire les « ontologies », cest-à-dire la structure conceptuelle des divers domaines de connaissances. Ces outils – descripteurs et marqueurs – ont pour but de favoriser lautomatisation des traitements dans la recherche des données et lexécution des opérations confiées aux agents intelligents ou robots logiciels.

Le Web sémantique se spécialise donc dans la définition consensuelle de normes favorisant linteropérabilité en ligne. Son efficacité repose principalement sur une vision réductrice et fermée des pratiques cognitives, des situations déchange de traduction, des processus réels de travail et des différenciations dans les phénomènes essentiels de recherche, de navigation ou de lecture-écriture. Et les ontologies sont, de ce point de vue, dans lombre portée des « systèmes experts30 » avec leur écologie inférentielle et propositionnelle.

Notre but cependant, nest pas ici, dexpliciter en profondeur les débats et problèmes portés par lapproche ontologique, inférentielle et formelle. Ils ont été relativement bien identifiés à défaut davoir été surmontés31.

Il sagit de rappeler quelques points concernant directement le spectre des écritures, des programmes et des technologies intellectives ainsi 173que leurs rapports différentiels, leur hybridation possible (les ontologies nétant quune partie des options) dans le cadre dinfrastructures pour la transversalité.

Des ontologies « all the way down » ?

Concernant de la fabrication des ontologies (modélisation parmi dautres de lagencement productif des savoirs) en vue dautomatiser un certain nombre de procédures et afin de rendre plus aisé des fonctions élémentaires ou complexes des pratiques de la recherche, il convient toutefois de rappeler un certain nombre de points.

La fabrication de ces ontologies se fait en sappuyant sur les modes dexposition des recherches sur des conditions documentaires de ces dernières. Elles viennent dans un après coup de lactivité même de recherche.

Reflexives elles participent cependant à lamélioration des pratiques de recherche internes au domaine dont elles sont issues et relativement, en sinsérant dans des ensembles documentaires plus vastes et hétérogènes aux divers modes de cheminement, aux nomadismes des concepts et des méthodes, aux processus de traduction, à lexploration-chevauchement des zones frontières.

Cette fabrication des ontologies est complexe et repose sur un travail collectif qui oscille entre consensus et dissensus, entre modélisation du système de relations internes (inferences, analogies, abductions, construction et validation de la preuve, régimes de vérité) et « passages en force » contre, tout contre les dimensions spéculatives des sciences, des savoirs, et ce que lon pourrait appeler leur monde imaginal32.

Mais les ontologies dans leur prétention à vouloir dire le processus de recherche et de pensée sont dans une fermeture logico-sémantique forte. (C. Hewit33)

174

Il faut donc, demblée sinquiéter des risques de maladies auto-immunes engendrées par ces approches : res renforcés, frontières réductrices…

En effet, comment les ontologies définissent-elles leur rapport aux « dehors » ? Ce que lon peut appeler le « petit dehors » qui est défini par le couplage entre champ ou discipline et son propre environnement, dehors qui est aussi celui des hétérogenèses internes associées aux héterogèneses à cheval sur les frontières et ce que lon pourrait appeler « le grand dehors », cest-à-dire ce qui fait une fente dans ce que lon pourrait appeler un dôme chaotique de buckminster fuller des savoirs et qui laisse entrer du chaos, à partir de disciplines et corpus plus larges, hétérogènes, instables. Dit autrement, y-a-t il une politique étrangère possible pour les ontologies ?

Charlet, Bachimont et bien dautres ont, dès le début suggéré34 un certain nombre de solutions pour faire face à ces questions y compris la co-existence productive entre ontologies hétérogènes. Ces solutions, selon eux, passsent par deux types de propositions :

des méthodologies séparant explicitement les termes et les concepts dun domaine et cest ce qui est expérimenté en médecine dans des serveurs de terminologie ou dans dautres domaines dans ce que les chercheurs appellent des thesaurus sémantiques ;

des méthodologies sécartant de la formalisation des ontologies et recherchant des proximités conceptuelles dans les termes dun domaine permettant den appréhender intuitivement la complexité.

Cette dernière approche interroge directement les chercheurs du Web sémantique. Soit continuer à développer des ressources formelles, des ontologies, pour le Web sémantique, soit passer par des ressources moins formelles, ces deux possibilités nétant dailleurs pas exclusives35 .

175

Le vertige IEML comme
“lingua characteristica universalis”

Ces problèmes sont même à la source dun projet tel celui de Pierre Levy, avec IEML (Information Economy MetaLanguage). « Je propose (écrit ce dernier) la construction dune sixième couche – basée sur IEML – au-dessus du Web sémantique. IEML propose un système de coordonnées sémantique indépendant des langues naturelles, capable dadresser une infinité de sujets différents et aptes à servir de base à des calculs de relations entre concepts. IEML a été conçu pour traduire les unes dans les autres les ontologies les plus diverses et pour interconnecter disciplines et points de vue divergents au sein du même système dadressage.

Le langage IEML utilise XML et traduit des ontologies. Il nest donc pas le concurrent dun Web sémantique sur lequel il repose, au moins sur le plan technique. IEML a pour ambition de résoudre les problèmes de communication entre ontologies et de compatibilité entre architectures de linformation locales que le Web sémantique a permis de poser mais ne peut régler au niveau où il se situe. En somme, le langage IEML, avec le protocole de lintelligence collective (CIP) qui organise son adressage numérique, veut constituer une nouvelle couche logicielle du cyberespace, ouvrant la voie à une informatique cognitive renouvelée (calculs sémantiques et pragmatiques) ainsi quà de nouveaux usages de lInternet orientés vers le développement de lintelligence collective, le pilotage distribué de léconomie de linformation et la gouvernance auto-organisatrice dun développement humain multifactoriel et interdépendant36. »

Les développements partiels et relativement fragmentés nen sont pas moins suffisamment avancés pour converger vers des dispositifs locaux, des infrastructures localement opératives pour changer certaines des conditions dexercice de le recherche et de la rélexion. Les données liées, les grammaires des metadata, la fabrication dontologies aux frontières plus ou moins productives, et de thesaurus complexes conçus à partir de données (au sens le plus extensif : données numériques, textes, documents 176hybrides, hypermédias) structurées, semi-structurées et non structurées, tout cela offre des possibilités de recherche navigation, dassociation, mais encore analogiques étendues.

Une des incarnations les plus récentes qui fait converger un certain nombre des propositions présédentes hors IEML, et qui tente de surmonter certaines des difficultés évoquées, est celle du projet “Open research knowledge graph” (ORKG)37.

Ce projet prend acte que « léchange dinformations devient de plus en plus sémantique et structuré dans un certain nombre de domaines : des graphes pour la connaissance encyclopédique, tel il y a environ une décennie, DBpedia, Yago et Freebase, ont créé les premiers graphes de connaissance pour la représentation de la connaissance encyclopédique, qui ont considérablement évolué ces dernières années et fournissent des milliards de faits sur la connaissance encyclopédique dans divers domaines. Après que DBpedia et Yago aient montré la valeur des graphes de connaissances encyclopédiques, Wikidata fournit désormais un graphe de connaissances organisé par la communauté deWikipedia, utilisé pour élaborer dees connaissances structurées dans Wikipedia de manière indépendante du langage et de qualité-certifié ».

« Le Open Research Knowledge Graph (ORKG) fournit des fonctions dinterconnexion, dintégration, de visualisation, dexploration et de recherche. Il permet aux scientifiques davoir une vue densemble beaucoup plus rapide des nouveaux développements dans un domaine spécifique et didentifier les problèmes de recherche pertinents. Il représente lévolution du discours scientifique dans les différentes disciplines 177et permet aux scientifiques de rendre leurs travaux plus accessibles aux collègues et aux utilisateurs potentiels de lindustrie par le biais dune description sémantique. (…) Cest donc un écosystème socio-technique pour la communication scientifique, le service ORKG est conçu comme un environnement de développement ouvert. À la base, il sagit dune infrastructure de gestion de données évolutive avec un modèle de données flexible basé sur des graphes, accessible via des API simples. »

Autres approches et hybridation

Toutefois dans la recherche “dinfrastructures pour la transversalité” nous devons étendre notre effort vers dautres approches – bottom-up – pour des onto-éthologies variables (“mettre la variation au cœur des ontologies” ?) dominées par des méthodes statistiques et ce pour que le mouvement inventif, spéculatif puisse se nourrir dans les agencements de rhizomes socio-cognitifs et de leurs interstices par où les mouvements de la recherche et de la pensée se produisent.

Bref, le lieu des chaosmoses de la pensée, des associations trouées et multifractales, de ce par quoi il y a de la créativité, de ce par quoi il y a au sein des pâtes plus ou moins homogènes de la recherche et de ses ralentissements (instances logiques, combinatoires avec leurs conditions et leurs systèmes de transmission, leurs mondes algorithmiques) des hétérogenèses plus ou moins contrôlées.

Cest la raison pour laquelle, nous pensons quil faut plus que jamais comprendre ce que doit être lagencement des technologies intellectives que nous devons viser, dans le cadre des infrastructures des mémoires numériques. Et, selon les niveaux déchelles où les pratiques se déploient, nous devons tenir compte des rapports entre métastabilité(s) et instabilitée(s), entre normes pour produire de lhomogène et autres normes outils pour entrer encore une fois, ou aller à cheval sur les zones frontières. Entre ce quil convient de synchroniser et la diachronisation quil convient de maintenir. Les boucles écritures-lectures sont puissantes aussi parce quelles ne cessent de produire des évènements dans la pensée ou dans la recherche.

178

Une autre conception tente de prendre en compte les pratiques communicationnelles « associés à la conduite dinteractions éphémères entre utilisateurs distants tout en offrant des représentations, souvent de nature graphique, des réseaux sociaux ainsi constitués ». Cette posture soppose donc à lapproche logiciste du Web sémantique formel. Elle défend une conception pragmatique des processus informationnels et communicationnels, tout en envisageant la linguistique et la sémiotique de manière plus ouverte. « Selon cette vision, le web est appréhendé avant tout comme un instrument de gestion documentaire facilitant des transactions coopératives interpersonnelles, éventuellement très asynchrones et distribuées entre des acteurs individuels et collectifs engagés dans des échanges, des débats, des controverses relevant de domaines très variés. Selon cette vision du Web, les modalités et les outils de gestion des documents doivent être pour partie conçus par les acteurs engagés dans une coopération active. Parmi ces outils le Web socio-sémantique préconise des cartes de thèmes ou réseaux de description que lon peut considérer comme relevant des ontologies sémiotiques38. »

Dans la perspective du déploiement des nouveaux agencements associés à lexploitation créative de la logique hypertextuelle, nous pensons quil y a donc un grand intérêt à ne pas laisser le champ libre au seul formalisme évoqué par le « cake » de T. Berners-Lee.

En effet, son efficacité est subordonnée à une « fermeture sémiotique », cest-à-dire à une réduction et à une standardisation des comportements et des pratiques.

La posture inverse, que nous défendons, prend radicalement en compte la sociologie en acte des pratiques et des usages, ainsi que les phénomènes de co-construction des connaissances, afin que « les langages syntaxiquement formels » puissent précisément être efficaces. Le problème est de concevoir des méthodes qui puissent représenter de telles structures sémiotiques et socio-cognitives, de manière à ce quun formalisme faible rende possible, à travers de nouvelles écritures, une approche pragmatique forte.

Nous verrons plus loin combien la position de Michel Callon et Bruno Latour marque de ce point un tournant. Et nous constaterons combien le programme informatique exposé est « pour » le programme sociologique 179voire philosophique tel que ce dernier est exprimé de manière radicale dans « Irréductions39 ».

Et il est en effet souhaitable de sortir, ou contre balancer lapproche logiciste du web sémantique, ce type de formalisation reposant sur des schèmes linguistiques logiques trop réductionnistes quant à la prise en compte des usages des communautés. Cest la raison pour laquelle il est important de discuter, de manière critique, lélaboration de ces nouveaux alphabets, de leurs contraintes combinatoires et de leurs grammaires. Il convient également de réfléchir à des nouvelles manières « non-documentaires » de produire des « onto-éthologies » ouvertes et dynamiques, et ce afin de se rappeler que les écritures sévaluent et simposent à partir de ce quelles ouvrent de créativités et dinventions, de ce quelles portent de nouveaux modes combinatoires comme autant dherméneutiques possibles.

« Caminante no hay camino
se hace camino al andar40 »

À la recherche donc de chaînes infométriques : quand les cartes des dynamiques de la science et leurs réseaux ne servent pas seulement à représenter mais à ouvrir les mouvements de la lecture et des cheminements, des analogies, des simulations : « mapping in the reading », « mapping in the writing » en quelque sorte. La création de ce type doutils est essentielle afin de déployer de nouvelles configurations de lecture « transversales », lectures nomades et percolatives, de nouvelles pragmatiques internes aux modes de lectures41.

Les textes, les pratiques décritures et de lectures dont ils sont lexpression et lexprimé, sont toujours des machines labyrinthiques, à n dimensions, qui ne cessent de créer les conditions de leur propre 180démantèlement, cest-à-dire de ré-écriture, re-lecture, de travail interprétatif, qui ne cessent douvrir vers un nombre toujours plus grand de trouées, percées, chemins virtuels dont seul pourtant certains sactualiseront. Ils ne sont jamais blocs denses et pleins, ils sont comme le cube de Serpienski ou léponge de Menger, territoires à la superficie potentiellement infinie, ouverts et connectables vers le hors-champ de chacun de nos mondes, des textes qui constituent notre milieu associé, notre niche éco-cognitive. Ils sont des architectures « différAn (t) ielles » hypercomplexes créant les conditions matérielles et idéelles dune tension permanente au milieu des coupures, des limites, des zones frontières, des trous et des vides. Pleines et entières positivités de ces machines à vides, à fractures, brisures, par qui le mouvement de la pensée sengendre, contre, tout contre les combinatoires et leurs contraintes, des signes, des traces.

Pleine et entière positivité des processus de chaotisation doù émergent (auto-organisations souveraines), sous les conditions de production de ces machines textuelles, les ordres locaux, les formes métastables de la pensée. De la lecture-écriture donc comme art(s) complexe(s) des cartographies réelles et imaginaires pour un territoire étrange qui ne lui préexiste pas, sinon comme milieu virtuel associé des textualités non encore connectées, entre léclatante et noire positivité de lécriture, des inscriptions répétées et lobscure, tantôt glaciale et volcanique positivité des vides, des espaces deux fois troués qui leur sont couplés.

Tel est donc le travail de la lecture : à partir dune linéarité ou dune platitude initiale, cet acte de déchiffrer, de froisser, de tordre, de recoudre le texte pour ouvrir un milieu vivant où puisse se déployer le sens ? Cest en le parcourant, en le cartographiant que nous lactualisons. Mais pendant que nous le replions sur lui-même, produisant ainsi son rapport à soi, sa vie autonome, son aura sémantique, nous rapportons aussi le texte à dautres textes, à dautres discours, à des images, à des affects, à toute limmense réserve fluctuante de désirs et de signes qui nous constitue. Ici, ce nest plus lunité du texte qui est en jeu, mais la construction de soi, construction toujours à refaire, inachevée (Cette fois-ci, le texte nest plus froissé, replié en boule sur lui-même, mais découpé, pulvérisé, distribué, évalué selon les critères dune subjectivité accouchant delle-même42.

181

Cest la raison pour laquelle, face à ces processus, on risquerait de manquer lenchevêtrement des logiques, types de causalités, et couplages, des jeux combinatoires et associatifs, des rapports différentiels entre pleins et vides si lon ne prenait la mesure des niveaux déchelle des pratiques décriture-lecture indéfiniment ouverts, de la granularité complexe et mouvante des ensembles de documents et dacteurs-auteurs associés, des cartographies et aides à lorientation en devenir, de la métastabilité et processualité des hyperdocuments, ainsi que des communautés dœuvres.

Dans ce contexte, on ne peut penser lauteur, que comme « multiplicité » expression et exprimé de ses milieux associés des communautés interprétatives dans laquelle il est inclus ou qui le prennent pour cible. Les diverses formes de “text mining” appliquées aux échanges de type Twitter internes aux communautés scientifiques de même que les analyses dites de Clickstream43 pour suivre les mouvements plus ou moins erratiques (sérendipité comprise) des cheminements pourraient être pour partie dévoilées. Cela posant au passage un problème majeur concernant la constitution de ces corpus. Ces derniers ouvrant vers ce que lon peut appeler lintimité des cérébralités en acte à loccasion des travaux de recherches. Dans quelle mesure cela est-il souhaitable ?

Les nouvelles écritures rendent de plus en plus visible le fait quil est (seul ou à plusieurs) agencement collectif dénonciation, milieu au milieu dautres agencements collectifs, à leur traversée et les traversant. Inscription partielle donc de « cela », cest-à-dire de cet agencement collectif, de cette mémoire collective en acte, distribuée selon des diagrammes spécifiques, des réseaux hétérogènes, hybrides, mais aussi de cet attracteur complexe des traces, trajectoires conceptuelles ou autres, entrelacées, quest le texte (dans ces deux sens), attracteur négociant vis-à-vis dautres, sa puissance de capture et de traduction des sémiotiques en mouvement.

La pensée se déploie alors dans et à partir de cette zone incertaine formée à la jointure des mouvements de subduction et de convection engendrés par les couplages entre la productivité des contraintes combinatoires neuronales et la productivité des contraintes combinatoires liées aux modes décritures, aux modes linguistiques, sémiotiques… et aux modes sociaux de transmission de ces contraintes.

182

Mouvements de subduction par lesquels vont se déployer en une alchimie noire les combinaisons chaotiques des pensées les plus frêles, des trajectoires les plus incertaines, des rapports de vitesse et de lenteur les plus subtils. Mouvements de convection par lesquels, contre et tout contre la matérialité des traces, de leur répétition, de leur combinatoire, vont se déployer coupures, failles, fractures, anfractuosités, lignes de fuites et entres elles des liens, des connexions, des ponts… Contre la pâte étouffante de lhomogène, contre léther anesthésiant du chaos, toute détermination est négation.

Les sciences de linformation… ?

Il est à noter que les sciences de linformation, communication, prenant appui entre autres sur les sciences non-linéaires et la théorie du chaos, peuvent apporter, à côté des sciences de la cognition, de léducation, leur contribution à la définition des problèmes portés par cette complexité. Comment décrire et se représenter de telles pratiques cognitives distribuées ? Comment décrire et penser le statut des nouvelles médiations ?

Les sciences de linformation, communication – et plus encore ce qui se regroupe sous lexpression « information science » – se sont en effet, (nous lavons aperçu) appliquées depuis une dizaine dannées au moins, à exploiter, dans leur partie fortement mathématisée les modèles et algorithmes de la géométrie en particulier et de la théorie du chaos44 ». Les travaux produits, par exemple, par la scientométrie et linfométrie, ont ainsi commencé à tirer parti des possibilités daméliorer les analyses quantitatives, qualitatives concernant les relations dynamiques qui unissent des collectifs dobjets et/ou dactants au sein des diverses communautés de recherche, et leurs modes de représentations graphiques. (Analyse des communautés, des fronts de recherche etc.) Des évolutions proches sont perceptibles aussi du côté de lingénierie documentaire, renforcées par lapparition des gigantesques mémoires 183numériques portées par Internet. Limportance croissante en effet, des méthodes danalyse statistiques et la nécessité de décrire et de discriminer les phénomènes démergence de formes stables, métastables, de formes fluides et instables au cœur de corpus hétérogènes ont renforcé lusage de ces modèles. (Graphes conceptuels, mises en évidence des phénomènes de convergence, divergence participant de la création des réseaux dacteurs réseaux complexes et dynamiques, mais aussi dattracteurs). Lespace des mémoires numériques portées par Internet a déjà suscité des approches montrant que lon pouvait considérer ce dernier comme un puissant système auto-organisateur.

Les hypertextes numériques en réseau sont en effets caractérisés par de multiples niveaux dorganisation systémiques, reliés par de nombreuses boucles récursives, de rétroaction. Par lintermédiaire des multiples interfaces, logiciels, mémoires, mécanismes de répétition et de redondance dont ils sont porteurs, ils sont en effet marqués par une utilisation de structures hautement récursives. Ils se caractérisent aussi par un nombre important de règles et de pratiques locales, qui, par leur application répétée, favorisent lémergence de structures plus vastes, plus complexes. Et les boucles de rétroaction agissent à lintérieur et entre les niveaux de codes, de sémiotiques, de mémoires, de textes et ce, parce quils sont habités par une grande variété de commandes et de modes décriture, largement distribuées sur un niveau déchelle important, voir à tous les niveaux déchelles. Ces dispositifs donnent aux méthodes, pratiques ascendantes, une place prépondérante.

Dans le même ordre didées, les pratiques, les comportements, les usages se développent en interaction directe avec lenvironnement plutôt que par lintermédiaire de modèles abstraits. Enfin les dispositifs de type hypertextuel incluent les utilisateurs dans leurs diverses boucles et les processus daltération/création, dassociation, peuvent se produire en des lieux multiples et ouverts. Pour aller à lessentiel : à lintérieur-extérieur des textes, des mémoires, à lintérieur/extérieur des programmes, des logiciels, des interfaces enfin à lintérieur-extérieur des pratiques collectives singulières et spécifiques ou de ce que lon pourrait appeler “les cheminements synaptiques” liés aux multiples pratiques décriture/lecture, pratiques singulières et/ou collectives. Pour finir entre les multiples niveaux de production de sens et de représentation et les niveaux des codes, algorithmes utilisés pour produire ce sens, ces représentations.

184

Notons encore une fois, que ces caractéristiques montrent que lon touche à un point critique lorsquon se concentre sur les phénomènes collectifs et sur ce fait que des savoirs, des connaissances peuvent être présents à un niveau déchelle tout en étant absents au niveau inférieur. Dans le cadre de la cognition distribuée cela signifie que lon ne peut faire limpasse sur la multiplicité des logiques, des usages impliqués et que le statut des médiations, des technologies intellectuelles, les possibilités de connexion, de filtrage, de représentation quelles permettent, létendue de leur dissémination, jouent un rôle essentiel. Et ce dautant que ces phénomènes collectifs mettent en jeu des hybrides comme agencements complexes de couplages déléments humains et non-humains. Certains travaux qui sont à lœuvre dans le domaine des formes organisationnelles sont de ce point de vue, radicalement concernés et impliquées.

Autre secteur important des sciences de linformation-communication, la théorie “mémétique”, principalement développée aux États-Unis propose, dun point de vue néo-darwinien, une approche prometteuse quant à la compréhension des phénomènes de transmission duplication, propagation, répétition altération des unités de sens (au sens large “memes”). Cette posture pose un certain nombre de problèmes, en raison principalement de deux facteurs. Premièrement la question des échelles nest pas clairement posée et deuxièmement, les concepts utilisés viennent en droite ligne se loger sous lautorité non questionnée du programme fort de la génétique.

Programme dont le dogme central sinscrit dans le fil du discours des essences et sappuie sur laffirmation que la transmission dinformation est unidirectionnelle selon le schéma classique émetteur-récepteur ; point de processus ouverts, reprise classique du débat entre déterminisme biologique et environnementalisme, renoncement au modèle hasard-sélection dans le contexte général dune émergence statistique du sens, des formes.

Au-delà de ces remarques, les théoriciens de la “memetic” offrent une ouverture vers les approches auto-organisationnelles et participent au développement des nouvelles technologies intellectuelles permettant dexplorer les problèmes complexes de la morphogenèse du sens.

Enfin ils participent au développement dune activité de simulation particulièrement intéressante sur le plan cognitif où la notion dattracteur vient approfondir par exemple la notion dintentionnalité.

185

Ces modèles et ces algorithmes de simulation qui font appel pour une large part aux ressources des sciences non-linéaires permettent de mieux comprendre les divers types de mécanismes, de couplages impliqués dans les phénomènes interactionnels participant à lémergence de formes organisationnelles plus ou moins stables et se révèlent de plus, être des outils décriture porteurs de nouvelles formes et pratiques cognitives45.

Dans ce contexte, les questions et problèmes de la morphogenèse du sens, des processus dinscription, de répétition, de transmission, de traduction, les modèles non-essentialistes de la communication, la critique des schèmes traditionnels de la théorie de linformation (menée par la cybernétique de seconde génération (autopoïésis), et les nouvelles conceptions de la biologie) se déploient « à cheval » sur les frontières disciplinaires.

Et la migration traduction, percolation des concepts et outils théoriques, qui nest en aucune manière une transgression (cest-à-dire une installation dans un au-delà radicalement nouveau, ou le dépassement illégitime de norme(s)), sopère de manière plus forte et créatrice dans des régimes de discours, décritures très variés.

Ce qui semble le plus manifeste cest tout dabord, la prise de conscience davoir à penser autrement la question du collectif, de lui faire une place prépondérante, centrale et ce quelque que soit le niveau déchelle où lon considère les phénomènes.

Deuxièmement cest lintroduction au cœur des multiplicités hétérogènes, comme conditions de leur émergence plus ou moins stables, dune grande variété de type de « couplages » permettant la prise en compte de la participation permanente de phénomènes collectifs, hybrides au cours desquels de nombreux micro-événements, micro-actants, médiations sans rapport les uns avec les autres, ne cessent de se produire de manière plus ou moins désordonnée, de converger diverger au cours de processus dactualisation et différenciation complexes.

Troisièmement, cest la tentative de penser lemboîtement de ces couplages, des modes ascendants et descendants et les divers modes de processus qui en découlent, avec des régimes de redondances et daltération création spécifiques. Quatrièmement ce sont les efforts menés 186pour étendre ces réquisits et axiomes dans un nombre toujours vaste de phénomènes et processus (de recherche) conçus comme incomplétudes en procès de production46.

Il sagit dappréhender le domaine des dynamiques et dispositifs informationnels communicationnel, comme champ processuel, toujours ouvert, où les notions, de stabilité, métastabilité morphogénétique prennent la place des essences. De ce point de vue tous les modèles interactionnistes hérités et encore dominants fondées sur le grand partage et les ontologies monovalentes sont de plus en plus fortement contestés.

Nombreux sont donc les associationnismes impliqués dans cette vaste hyperpragmatique au sein de laquelle la multiplicité des pratiques et dispositifs communicationnels aboutit à des instanciations singulières de cette hyperpragmatique généralisée selon les actants, médiations et niveaux déchelles. Ces apports, qui ne sont pas les seuls, sont loin dêtre négligeables afin dappréhender les évolutions en cours du projet encyclopédique numérique. Cest là un ensemble de raisons pour lequel les caractères du document numérique doivent être « creusés », dès lors que lon considère les ensembles de mémoires numériques associées en réseau de type hypertextuel, et que lon veut en comprendre les modes dexploitation en devenir.

Les principes du modèle hypertextuel

Pierre Lévy47 a, au tout début des années quatre-vingt-dix, caractérisé « afin den préserver les chances de multiples interprétations » le modèle hypertextuel, par six principes abstraits :

« Le principe de métamorphose : le réseau est sans cesse en construction et en renégociation… Son extension, sa composition et son dessein sont un enjeu permanent pour les acteurs concernés, que ceux-ci soient des humains, des mots, des images…

187

Le principe dhétérogénéité : les nœuds et les liens dun réseau hypertextuel sont hétérogènes… Le processus sociotechnique mettra en jeu des personnes des groupes, des artefacts, des forces naturelles de toutes tailles, avec tous les types dassociation que lon peut imaginer entre ces éléments.

Le principe de multiplicité et demboîtement des échelles : lhypertexte sorganise sur un mode “fractal”, cest-à-dire, que nimporte quel nœud ou nimporte quel lien, à lanalyse, peut lui-même se révéler composé dun réseau, et ainsi de suite indéfiniment, le long de léchelle des degrés de précision… »

Le principe dextériorité : le réseau ne possède pas dunité organique, ni de mot interne. Sa croissance et sa diminution, sa composition et sa recomposition permanente dépendent dun extérieur indéterminé…

Le principe de topologie : dans les hypertextes, tout fonctionne à la proximité, au voisinage. Le cours des phénomènes y est affaire de topologies, de chemins…

Le principe de mobilité des centres : le réseau na pas de centre, ou plutôt, il possède en permanence plusieurs centres qui sont comme autant de pointes lumineuses perpétuellement mobiles, sautant dun nœud à lautre, entraînant autour delles une infinie ramification de radicelles, de rhizomes ; fines lignes blanches esquissant un instant quelque carte aux détails exquis, puis courant dessiner plus loin dautres paysages du sens48. »

Ces dimensions du document numérique, dans les espaces-temps des mémoires numériques ne cessent donc de se creuser de manière intensive, suivant les niveaux déchelle considérés. La notion de granularité « sémantique » simpose donc pour penser ces nouvelles textures. En effet, la processualité des documents numériques se définit entre autres, par les divers types, les diverses formes et tailles des documents eux-mêmes, ainsi que par les caractéristiques des nœuds et des liens, autrement dit par les modes dassociation et par cela même qui est associé. Ces modes dassociations sont très ouverts, potentiellement infiniment ouverts, dans lespace du réseau. Toutefois, les liens entre des nœuds très variables, ouvrent un espace de jeux décriture asymétriques et complexes, un espace interprétatif très ouvert. De plus les états successifs (états métastables) des documents, parties de documents, fragments de documents mis en jeu au cours du processus décriture deviennent plus visibles.

188

Les modes éditoriaux sen trouvent donc affectés, transformés, étendus. Ils ne consistent plus à mettre en forme stable, finie, les résultats dun travail, quels que soient les dispositifs de validation, légitimation qui disent la limite et la norme, qui annoncent larrêt suspensif du procès de recherche, figent le mode dexposition et enfin disent : “ceci est achevé et donc peut être mis en jeu, exposé comme texte de référence”.

À présent, en étant en mesure, dexhiber de manière relativement stable, les éthologies « amont » conceptuelles ou autres, qui convergent, enveloppent le travail des textes et auxquelles les formes traditionnelles dédition avaient renoncé, en étant en mesure de montrer les éthologies « aval » qui se développent à travers lincessant travail de re-prise, de commentaire, de citation, de nouveaux modes éditoriaux voient le jour.

Ces nouveaux modes éditoriaux expriment de plus en plus précisément les dynamiques de construction des textes, le caractère de toute façon toujours transitoire des formes stables, leur fonction dattracteur-transformateur, à la durée variable. En rendant donc plus visibles les sociologies qui sont à lœuvre au cours des processus décriture vers et à partir des formes textuelles métastables, ils engagent un mouvement de contestation des dispositifs éditoriaux hérités et donc aussi des modes de fonctionnement des communautés, des liens qui les font être. Ils opèrent au cœur même de lÉconomie Politique des Savoirs. Ils élargissent le mouvement déconstructif en ce quils déplacent de manière concrète, le concept décriture, le généralisent et larrachent dun certain point de vue à la catégorie de communication « si du moins on lentend (cette dernière) au sens restreint de communication de sens49 ».

Onto-éthologies et émergence

Nous venons dexpliciter pour partie létat actuel, dans lunivers des mémoires numériques des sciences, de la mise en mouvement des savoirs à la traversée plus ou moins complexe les uns des autres peut passer (peut-être) 189par des agencements de métalangages ou par une grammaire géo-graphique permettant de naviguer dans lespace hétérogène des ontologies ou des « onto-éthologies » qui décrivent les savoirs spécifiques constitutifs du savoir scientifique général et processuel disponible sur le Web. Qui permettent détablir de nouvelles connexions. Car, comme nous lavons déjà dit, il est préférable à la place de faire porter tout le poids à la modélisation sous forme dontologies, daccéder à la définition des « onto-éthologies » : elles expriment les structures socio-cognitives50 portées par les corpus, les traductions et les processualités à lœuvre au cœur même des communautés.

La « structuration » (formalisation) des textes et des documents, de même que leur filtrage, doivent être envisagés, dans leurs aspects techniques, sous une double contrainte. Il faut pouvoir traiter des populations de textes numériques, susceptibles dêtre en permanence re-composées et trans-formées, dune part ; il faut fabriquer des outils dexploration et dexploitation intellectuelles de ces populations, des outils de représentation de leurs processualités constitutives qui favorisent, nous lavons déjà dit, des capacités analogiques, associationnistes et combinatoires, selon des niveaux dorganisation multiples, dautre part.

Du programme scientométrique51 à la « Machine de Hume52 » en passant par des algorithmes visant la logique des associations et fondés 190sur le principe général de co-occurrences53, cest là leffort qui depuis le début des années quatre-vingt, a sous-tendu les approches « bottom-up » pour exprimer les structures socio-cognitives des sciences, en étant éloigné des approches « symboliques » et inférentielles lourdes.

Face à de tels enjeux et problèmes il convient de se mettre en situation de pouvoir décrire les acteurs-réseaux et les actants54 constitutifs du champ de recherche et de lespace de déploiement des réseaux de savoirs. Bref, il faut pouvoir rendre compte des agencements collectifs, hétérogènes de production, dénonciation, de légitimation des énoncés de la science, de leurs rapports différentiels et conflictuels. Il faut pouvoir les faire émerger à partir des traces exprimées, inscrites par les acteurs participant à lélaboration de ces réseaux (Latour Bruno. – Callon Michel)

Leximappe et Candide comme repères

Pour se donner des visibilités différentes, plus variées, de viser les flux, les processus, les relations, les médiations, les intermédiaires, les traducteurs, les relais, les transformateurs qui définissent les rapports de forces en devenir ; et ce sinon à toutes les échelles, en tout cas selon le plus grand nombre déchelles possibles et en utilisant les capacités offertes par les nouveaux dispositifs de la mémoire, la matière numérique et les techniques intellectuelles. Il faut apprendre à utiliser les traces et les systèmes de traces, dindices produits et laissés par les acteurs eux-mêmes. Les modes de coopération-affrontement, bref, de mises en relation entre ces différents acteurs-réseaux (à lintérieur des organisations ou entre elles), se matérialisent entre autres par la circulation de toute une série de textes, documents, programmes de recherches, déclarations… Ces textes constituent, individuellement ou pris ensemble, des dispositifs qui établissent des branchements et des connexions de toutes sortes avec dautres textes et dautres inscriptions littéraires, dautres 191dispositifs… « Au texte clos sur lui-même et auquel on opposerait de manière classique son contexte, il faut substituer ce texte, sans intérieur ni extérieur mais ramifié, feuilleté, opérant des branchements et des mises en relation, dispositif définissant des entités hétérogènes et les associant dune manière particulière. » (Callon Michel) Bref, « partir de ce qui circule nous conduit, à ce qui est décrit par ce qui circule. (Décrire aux sens de description et de décrire une orbite)55 ».

Lélaboration de cartographies exprimant, les mondes conceptuels, les divers dispositifs collectifs de production et dénonciation des sciences est donc centrale. Ces cartes pouvant à leur tour servir de filtres sur des écologies plus larges, ces cartographies fonctionnant alors comme outil dexploration et dinterprétation dunivers complexes, suscitant la prise en considération de point dentrées, de points de vue, détats déchelles multiples sur le ou les domaines, champs de forces considérés.

Recherche des traces, indices exprimant les conditions dénonciation, mise en évidence des réseaux dinfluence, des voies de circulation – presque de percolation des concepts, notions, relais, objets, systèmes hommes-machines, à travers entre autres lanalyse des mots associés etc. sont ici des axes précieux. La possibilité de traiter, dexaminer de gros corpus documentaires, des données hétérogènes, rend possible le développement « danalyses relationnelles qui consistent à imaginer des indicateurs fournissant la morphologie des interactions et qualifiant les éléments en interaction56. »

Nous optons donc, à la suite de Michel Callon et Bruno Latour pour une « modélisation faible », une modélisation émergente, cest-à-dire que nous mettons en place les conditions ouvertes de suivre au plus près la richesse des processus de production-circulation des savoirs et des connaissances en tenant compte des nouveaux modes de collecte, stockage, traitement des informations, à partir de nouveaux modes dorganisation du travail intellectuel, de Réseaux Hybrides Intelligents.

Selon Latour et Teil, tel quils exposent le devenir en cours dans « la Machine de Hume », « ce qui se passe, cest que nous nous rapprochons de plus en plus des techniques de la narration – un outil essentiel pour les historiens, les ethnologues, les sociologues de terrain et les naturalistes – et de la description de réseaux dassociations constitués dun fouillis de bases de données hétérogènes. Dans cette fusion de qualités littéraires qualitatives et de la puissance du traitement quantitatif, nous attendons 192un renouvellement des méthodes et des explications en sciences humaines. Il nexiste pas dexplication plus puissante que lanalyse des circonstances contingentes des réseaux dassociation, mais pour le moment, le seul moyen dobtenir cette forme de signification consiste à utiliser un récit limité aux terrains restreints. Jusquà présent, le seul remède à cette limitation consistait à recourir aux tableaux statistiques et aux analyses quantitatives. Cétait au prix dune rupture avec le tissu délicat des réseaux et des circonstances, doù linterminable débat entre sociologie du terrain et sociologie des structures, entre histoire et sociologie, entre histoire économique et théorie économique, entre arts et sciences, entre histoire de philosophie de la science et de la construction de modèles. La machine Hume ouvre un itinéraire alternatif. Qualitatif et quantitatif à la fois57.

Nous proposons rapidement de décrire un tel mode dapproche qui laisse entrevoir comment il est possible de faire émerger des dispositifs hétérogènes impliqués. Suivant les types de traces pris en compte, suivant la taille des corpus documentaires établis et suivant les modes dindexation et les outils mathématiques utilisés, on peut ainsi faire apparaître les réseaux selon des états déchelles différents et selon des points de vue variables tels quils sont exprimés par la pratique et son cortège dinscriptions, de médiations.

Le principe de calculabilité de la Machine de Hume et la méthode des mots associés : « La robustesse des relations structurées ne dépend pas des qualités inhérentes à ces relations mais du réseau dassociations qui en constitue le contexte. Le principe de départ de la construction de la machine Hume est un principe de calculabilité différent de celui des machines de Turing, mais qui occupe la même position stratégique pour notre projet que le sien.

Le raisonnement est le suivant :

toute forme est un rapport de force ; B) toute relation de force est définie dans un procès ; C) tout essai peut être exprimé sous la forme dune liste de modifications dun réseau ; D) tout réseau peut être résolu en une liste dassociations dactants spécifiques et contingents ; E) cette liste est calculable.

193

Il nexiste donc pas de concept formel plus riche en informations que celui dune simple liste dactants spécifiques et contingents. On a tendance à croire que nous sommes mieux lotis avec des catégories formelles quavec des faits circonstanciels, mais les formes ne sont que le résumé dun réseau : cest-à-dire du nombre et de la répartition des association58.

Lanalyse des mots associés est une technique statistique introduite conjointement par le Centre de Sociologie de lInnovation (CSI) de lÉcole des Mines de Paris, et le Centre de Documentation Scientifique et Technique (CDST) du CNRS (Courtial J. P, Michelet B., Turner W.).
Contrairement aux approches lexicométriques, lapproche des mots associés vise lanalyse des cooccurences de termes. Elle permet dexprimer les convergences dintérêts entre acteurs, actants (au sens le plus extensif de ces termes), de faire apparaître des agrégats, des agencements, de les hiérarchiser selon la nature et la taille du corpus sur lequel on travaille, corpus qui rappelons-le doit être validé, clôturé. La question des traces et de leur pertinence est plus que jamais essentielle

Brièvement donc, cette méthode est fondée sur la co-occurrence des termes indexés. Lassociation de deux mots-clés (i, j) – dont loccurrence (Ci, Cj) est égale ou supérieure à 2 – est mesurée en fonction de leur nombre dapparitions communes (co-occurrence) dans les documents quils indexent (Cij). Lindice statistique qui mesure la valeur de lassociation entre les mots-clés est le coefficient déquivalence. Si lon note Cij la co-occurrence entre i et j, et Ci, Cj leur occurrence, lindice peut sécrire sous la forme suivante : Eij = (Cij / Ci) x (Cij / Cj) = Cij2 / Ci x Cj.

Les associations sont ainsi affectées dune valeur. Tous les couples de termes obtenus sont triés par valeurs décroissantes. Ensuite, on parcourt 194séquentiellement la liste classée des couples pour construire les clusters. Tous les éléments à clusteriser (agréger) forment initialement un seul grand réseau dassociations. Il sagit dun réseau valué, cest-à-dire, dun système de relations dans lequel les mots sont reliés par des liens plus ou moins forts.

Le découpage du réseau dassociations en clusters (en agrégats) se fait en fonction dun critère de lisibilité, à savoir la taille : fixant le nombre maximal et minimal de composants et le nombre de liens. Si un couple de termes appartient au même cluster, le lien entre ces termes est considéré comme lien interne au cluster. Si les termes dun couple appartiennent à deux clusters différents, leur lien est considéré comme lien externe, cest-à-dire un lien entre clusters. Sont ainsi exprimées la position respective des agencements les uns par rapport aux autres et la stabilité plus ou moins grande de ces mêmes agencements, leur capacité « daffecter ou dêtre affecté » Les « clusters » sont donc situés dans un espace à deux dimensions, et sont situés dans un plan défini par un coefficient de cohérence interne du thème et par un coefficient de centralité. La « cohérence interne » dun agencement est ici la moyenne des valeurs des associations « internes » Cette valeur est notée sur laxe vertical y de la carte. Plus la moyenne est élevée, plus il est considéré comme étant un agencement bien structuré et reconnu. La « centralité » dun agencement (cluster) est mesurée par la moyenne du nombre total dassociations externes qui existent entre lagencement donné et les autres. Cette valeur est notée sur laxe horizontal x de la carte. Plus la moyenne est élevée, plus lagencement en question est considéré comme un point de référence (centralité) pour lensemble.

Outre les coefficients de Densité et de Centralité – qui expriment : pour le premier, la solidité, le degré dhomogénéisation, la stabilité, la richesse dun cluster ; et pour le second, la capacité de connexion, la puissance de capture, la capacité daffecter ou dêtre affecté du même cluster –, le profil dassociation de chaque « actant » est le profil de lentité linguistique de référence et qui permet de définir cette dernière de manière univoque au sein du réseau, peut être interprété de la même manière. « Chaque point dans le réseau peut être défini par la liste de ses associations directes à dautres points du réseau. (…) » De la sorte « on peut dresser une typologie descriptive des points à partir de leur profil… de “grands” points ont un profil très long et se connectent à de 195nombreux autres points dans le réseau. De “petits” points occupent une position très localisée voire marginale dans le réseau59. »

Au terme – provisoire – de ce dévoilement des configurations à lœuvre, aux échelles déterminées à la fois par le type de traces pris en compte (moment de la constitution du corpus et légitimation de sa fermeture) et les seuils dassociations sélectionnés pour calculer le réseau dassociation lui-même, nous nous sommes donnés en outre, exploitant les capacités hypertextuelles émergentes (représentation cartographique et semi-dynamique du réseau qualifié des clusters – exploration libre), non seulement la possibilité dinterpréter sous des conditions de visibilités nouvelles, mais encore de relancer le processus dexploration et décriture des dispositifs impliqués. En effet sont, de facto, indiqués, pointés les domaines ou les actants vers lesquels lexploration peut être poursuivie et amplifiée. Par exemple, les réseaux de chercheurs, les collèges invisibles à lœuvre, les liens avec des domaines de recherche très fins, les entreprises liées au complexe militaro-industriel…analyses de contenu, description dacteurs-réseaux hétérogènes invitant à parcourir selon des niveaux déchelles variables, les diagrammes complexes, à n dimensions définissant notre champ de recherche. Dune autre manière, ce sont dautres corpus à constituer qui sont suggérés, dautres types dindices, de traces à capturer, à inventer. De même dans les contextes variés de veilles techno-scientifiques et stratégiques, lanalyse répétée dans le temps, permet de suivre le déplacement des actants selon les axes de centralité et de densité, leur apparition et/ou leur disparition.

Sortir de lImpérium binaire :
quantitatif / qualitatif :
La machine de Hume fraye sa voie

Comme la variation de la précision dans la Mesure ouvre vers de nouveaux mondes qualitatifs, de nouveaux paradigmes conceptuels, perceptifs, intensifs, la variation des couplages structurels Pensée, écritures, 196algorithmes, dans les va-et vient de leur co-détermination, est le foyer transductif en mouvement. Cest la raison pour laquelle louverture humienne dans sa simplicité et humilité est radicale.

Bruno Latour et Geneviève Teil exprime cette radicalité en écrivant « que le seul point de départ nécessaire nous est offert par lordinateur lui-même. Il sagit dun réseau dassociations entre des contingences, nayant dautres caractéristiques a priori que celles qui sont différentes les unes des autres, et quelles peuvent être traitées. Est-ce que lordinateur est aveugle ? Mais nous aussi. Est-ce que lordinateur a des règles formelles pour commencer, non ? Nous non plus. Lordinateur ne traite-t-il pas les abstractions ? Nous non plus. Est-ce que lordinateur va cheminant, dun essai à lautre, dune circonstance à lautre ? Nous aussi, et nous nen demandons plus. »

Ils enfoncent le cou et mettent en évidence « le paradoxe des discussions sur les possibilités des ordinateurs est quils se voient attribuer des qualités quils nont pas – le formalisme, le rêve épistémologique de lhomme – alors quils se voient refuser les capacités herméneutiques quils possèdent déjà. En réalité, lordinateur est déjà un système ouvert. Il respecte les aléas et les spécificités bien plus que ne le croient les humains qui tentent de le programmer. Nous renonçons ensuite à pouvoir jamais en sortir ce dont il est déjà capable, à la seule condition dabandonner nos fantasmes épistémologiques. Cette conception de ce que font les ordinateurs est clairement le résultat de lapplication de notre argument concernant lorigine des formes structurées, puisque cest cet argument qui nous permet de contester des projections anthropomorphes sur des ordinateurs. Mais ce résultat est à son tour ce qui nous permettra dutiliser immédiatement lordinateur pour prouver notre argumentation concernant lorigine réseau de ces formulaires »

La conclusions est donc la suivante : « la machine Hume est une machine associationniste et nest que cela. Il ne vient avec aucune catégorie logique, aucune forme syntaxique, aucune structure. Cest, osons dire, aveuglément empiriste. Ce que nous espérons tirer de notre stratégie, cest de trouver, au lieu du chaos auquel on pourrait sattendre, toutes les propriétés émergentes dignes de notre attention et qui nous permettront de circuler entre les micro-théories60.

197

Tout le travail qui se développe à partir de ce cadre conceptuel très général afin de rendre plus efficace lanalyse des réseaux dans le cadre du web et dans le secteur des Sciences sociales est ici le bienvenu et favorable à létude des communautés de chercheurs et des agencements des sciences.

Si nous récapitulons nos exigences et notre ambition les mémoires de lédition électronique et leurs infrastructures, dès lors quelles visent à développer les milieux dintelligence dont elles porteuses sont confrontées à un certain nombre de contraintes et de logiques de développement. Les dimensions collaboratives et coopératives étant au cœur des relations qui tissent ces milieux depuis le début, deux logiques en effet co-existent plus ou moins harmonieusement : « une logique normative, ou “top-down”, promue par les partisans du Web Sémantique, logique qui garantit une certaine interopérabilité et la facilité danalyse », logique qui sactualise et se complique avec ce que lon appelle les domaines des ontologies, (enchâssées dans un cadre documentaire reflet des consensus de chaque champ de recherche) et qui reposent sur des modèles conceptuels, relationnels, linguistiques, logiques, forts61 ; et de lautre une logique émergente, qui garantit un champ dapplication beaucoup plus vaste (prenant linformation, structurée ou non ; tous les usages, prévus ou non). Toutefois, pour suivre François Bourdoncle, ces logiques ne sopposent pas de manière frontale et il y a même tout intérêt a mettre en ouvre des approches hybrides pour les raisons déjà évoquées. Les normalisations, les systèmes classificatoires (même hérités), les inférences élémentaires ou complexes et stabilisés de certains champs de la connaissance, peuvent rendre plus aisé les approches émergentes, le travail de structuration de linformation non-structurée ou semi structurée. Les approches pragmatiques ne rechignent pas loin de là à sappuyer sur les diverses technologies du Web sémantique. On peut imaginer renforcer la finesse des mises à jour des rhizomes plus ou moins stables des lieux de savoirs grâce à des pratiques de social-tagging sur les contenus et lapprofondissement des modes de lectures62. Sur ce dernier point on sait que les nouvelles écritures numériques transforment les pratiques de lectures. De plus si nous prenons en compte le fait de la co-présence des mémoires « papier » avec les mémoires numériques, on assiste là une différenciation des modes de lecture, à leur enchevêtrement. La tension entre le « lire de près » (supposé être attaché au document papier) et le « lire de loin » (attaché au numérique) est trop imprécise, radicale63. Toutefois dans lunivers des livres « le prés » est relatif et il nest pas séparé de la profondeur de champ due aux 198processus des hypertextes internes au livre lui-même et relayé vers le lointain par les configurations de citabilité et des références. Il y a du lointain dans la lecture de près. Ce que les mémoires numériques rendent possible cest, dune part lextension et la différenciation des associations, des plis et des déplis par quoi se définit pour une large part, pour reprendre Pierre Lévy64, la Lecture, mais cest aussi la possibilité de produire des logiciels, des algorithmes pour mettre à jour les réseaux, la structure fractale voire multifractale de ces réseaux, pour étendre la lecture en amont et aval des documents ; en zoomant en quelque sorte sur les toiles daraignées à n-dimensions de nos lectures, au gré des plis et déplis qui rendent la lecture plus productive65.

Les algorithmes qui rendent cela possible peuvent être dits « réflexifs ». Dun point de vue général un grand nombre de logiciels de datamining, de textmining développés depuis les années soixante (dans le cadre du programme scientométrique) ont en vue lexplicitation des réseaux conceptuels, des réseaux collaboratifs entre chercheurs, entre laboratoires… afin de mieux habiter ces milieux dintelligence, ces « collectifs de pensée », ces agencements qui produisent des savoirs.

Penser les rapports entre « les près » et les « lointains » de la lecture. Et la numérisation complique les rapports entre les « essences » documentaires, les blocs décritures et la granulosité sémantique, les trajectoires associatives, analogiques, les processus de transformation sémiotique et les pragmatiques qui vont avec dans le cadre dune nouvelle alliance entre les images, les textes et les sons. Il y a dans cette capacité à produire des diagrammes, lespoir que nous « pourrions apprendre beaucoup sur la forme roman et ses avatars, ainsi que sur les forces à lœuvre dans l“écosystème” littéraire et le monde social qui contribuent à leur transformation66 » Cela vaut aussi depuis que la sociologie de la science sest occupée daccéder aux « collèges invisibles » aux fronts de recherche…

De telles infrastructures incluant les technologies intellectives pour des approches émergentes donneraient consistance à « des intelligences collectives dusage » dans le domaine des agencements de savoirs, ses socles pour « travailler » dans leurs hétérogenèses.

199

De lintérêt des modèles et technologies déployées dans le monde industriel à travers les Systèmes dInformations dentreprise (dit à lépoque « intranet ») et quil y aurait à en appliquer (en ladaptant) le modèle67.

Cest là nous semble-t-il en effet que certaines des approches développées dans le domaine industriel proposent à travers leur puissance la possibilité de produire cartes et metadata en temps réel de manière émergente et ce selon des échelles variables dans le cadre de ce que lon peut appeler des recherches contextualisées

Le principal enjeu pour cela en suivant la voie propose par François Bourdoncle68 est de concevoir « des dispositifs qui sachent extraire les faits les concepts, les actants et les systèmes plus ou moins différenciés de leurs relations et qui sachent “interpoler” de manière automatique ou semi-automatique des thesaurus de faits, de concepts, dactants et de relations au-delà des corpus ». Et en raison de la taille des mémoires de lédition numérique scientifique, la gestion locale ou globale des corpus structurés ou pas doit « supporter des ressources linguistiques et sémantiques de taille elles-mêmes considérables. »

Les technologies utilisées pour parvenir à ces résultats ne peuvent pas être des technologies purement linguistiques, car ces techniques certes très précises, souffrent de deux défauts rédhibitoires. Tout dabord, elles sont très coûteuses en temps de calcul, quasiment de deux ordres de grandeur trop coûteux, ce qui rend leur utilisation impossible à grande échelle et ce pour un futur encore assez lointain. La seconde raison cest que les thesaurus linguistiques sont très pauvres vis-à-vis de la richesse terminologique que lon trouve dans (les corpus des savoirs) » Il est donc indispensable « dinterpoler les thesaurus par des techniques dapprentissage » (« machine learning » en anglais). Ces techniques dinterpolation partent dune idée simple : observer le contexte dans lequel certains mots « semblables » (par exemple des noms de couleur) apparaissent, modéliser ce contexte, et ensuite détecter toutes les occurrences de ce contexte avec des mots inconnus pour compléter la liste69.

200

LIVE TOPICS – Exalead

Dans un bref mais séminal article François Bourdoncle et Patrice Bertin70 proposent de définir de nouvelles fonctionnalités pour les moteurs de recherche. Il sagit pour eux de sortir dune approche essentialiste de la recherche (liste de documents à la suite dune requête) pour viser ce que lon pourrait appeler de manière plus précise que « recherche contextualisée », recherche par « clusterisation » ou par micro-agencements. Certes ils navaient pas forcément en tête la conception sémio-linguistique de Deleuze-Guattari et leur critique des postulats de la linguistique.

Mais comme le notait Tracy Stanley en 199771 dans une excellente analyse de Live Topics, en cherchant à surmonter le problème de la surcharge dinformations et des listes documentaires primitives qui ne permettent pas den comprendre le contenu et de trouver des informations réellement pertinentes, les concepteurs de LiveTopics pour Alta Vista (le moteur de référence des années quatre-vingt-dix avant lavènement de Google) « avaient pour objectif de contourner ce problème en utilisant une méthode connue sous le nom de catégorisation dynamique des résultats. Cela signifiait quune fois la recherche effectuée, Alta Vista (pouvait) regrouper les résultats dans un certain nombre de sujets ou de thèmes clés différents, organisant ainsi des pages Web ayant un contenu similaire sous le même en-tête. Ce regroupement nest pas prédéfini, mais est effectué “à la volée” en fonction des résultats de la recherche. Les pages sont automatiquement analysées pour leur contenu et lanalyse statistique est utilisée pour regrouper les sujets en thèmes ; ceci est basé sur le nombre doccurrences de mots dans chaque document faisant partie des résultats de la recherche. Le grand avantage de cela est que la catégorisation des documents peut changer au fur et à mesure que leur contenu change, au lieu dêtre figée. Lutilisateur peut ensuite passer en revue ces sujets et affiner leur recherche en choisissant ceux qui semblent le plus appropriés et adaptés à leurs besoins. Des informations non pertinentes peuvent être exclues de la recherche. »

201

Fig. 2 – Live topics 1996-1997 (Document personnel).

cryptography-clipper.gif 00065C2EPBG4-HD C3EC34CC:

Fig. 3 – Live topics 1996-1997 (Document personnel).
Source http://www.ariadne.ac.uk/issue9/search-engines

202

Comme on peut le voir ci-dessus, à chaque requête le logiciel génère une carte de mots-clés reliés entre eux (cluster) à chaque mot-clé dominant du clusterest associé un certain nombre dautres mots (constituant un sous cluster). La carte exprime ainsi de manière certes grossière, le réseau-agencement dans lequel est inclus le concept ayant servi de requêtes et produisant simultanément le corpus associé. Ceci étant fait en temps-réel la conception de LiveTopics permettra de rajouter (Exalead) la fonction « REFINE » elle-même permettant de faire, à partir du premier réseau, varier la requête de multiples manières, générant ainsi un nouveau corpus et sa carte associée.

Cela nous semblait-il, était un embryon doutil de navigation dans la géographie à n-dimensions des corpus quelle que soit leur taille ou échelle et pour des données structurées, semi-structurées ou non-structurées.

Ce que visait LiveTopics au-delà dune localisation rapide dinformation, mettre en place les conditions pour les pratiques et besoins élémentaires en termes de veille concurrentielle-Intelligence économique-veille scientifique et technique, veille informationnelle et de conception des intranets.

Dune manière générale on peut dire que cette capacité à faire du « mapping in the making » au cœur des systèmes dinformation dentreprise (à partir de la reprise des « Intranets » et du dataming de lhypermarketing)72 exploite massivement cette i en temps réel inspirée de la scientométrie des années soixante. Scientomtérie qui avait pour but en exploitant les grandes bases de données de produire de nouvelles conditions pour la définition des politiques scientifiques. Les bases crées du SCI et SSCI lont été dans cet esprit73. Cest aussi pour développer de nouvelles visibilités concernant les dynamiques des sciences, les réseaux dacteurs que sest développé dès les années soixante donc le programme scientométrique orienté vers la sociologie des sciences. Ce nest pas un hasard si dans larticle séminal évoqué plus haut, il est fait référence aux travaux dE. Garfield sur les citations, aux travaux (accrochés au programme scientométrique74) des réprésentants du centre de sociologie de linnovation 203de lÉcole des Mines de Paris75, de H. Small sur les co-citations dans la lecture scientifique76.

La question des échelles,
dissémination des archives et formes courtes

De lintérêt quil pourrait y avoir à inclure ce type de technologies dans les infrastructures de lÉdition numérique et à la décliner et à la disséminer aux niveaux déchelle qui conviennent et aux points stratégiques où les savoirs se fabriquent, se déplacent, se transforment et saffrontent77. Cest ce que la réflexion engagée autour des « Aolab78 » (archive ouverte de laboratoire) tentait dexprimer.

Au cœur des processus démergence intellectuels formes courtes et longues ont besoin dun milieu rendant possible une plasticité des rapports de vitesse et de lenteur dans la co-construction plus ou moins conflictuelle en tout cas controversé des savoirs. Les formes courtes jouent un rôle essentiel. En effet elles ne sont jamais centrées sur elles-mêmes, elles ne cessent de porter et dexprimer quelles sont toujours en attente dune autre forme, d (un autre texte, dun autre argument, dun autre récit dun autre événement de pensée ? Cette capacité subversive et productive dinstabilités, danaphores intellectuelles peut être forte.

Et ce dautant que les modes dinscription et de répétition-altération, dexpérimentation, de simulation sont porteurs dune activité de lecture plus fébrile, labile instable. Au milieu de phénomènes de reconfiguration des processus associatifs, analogiques que lacte de penser implique. Tout mode décriture et tout dispositif qui favorisent 204pour suivre Douglas Hofstadter létablissement de connexion par la bande, dexpériences de pensée etc. sans rien devoir à la causalité ou à des schèmes convenus qui rendent plus manifeste pour chaque énoncé, chaque proposition formulée, chaque narration, le fait dêtre entouré dun amas, dun halo de variantes elles-mêmes qui peuvent être suggérées par le glissement (la traduction) dun quelconque des innombrables traits qui les caractérisent79. Ces dispositifs se rapprochent du souhait énoncé par M. Foucault.

Mais dune manière plus générale il sagit de pas laisser linvention dans les dispositifs de lédition scientifique dans les mains des grands ensembles molaires de lédition y compris les infrastructures Open. Larticulation de ces archives ouvertes dites de laboratoire avec les autres modes éditoriaux se faisant sous des conditions de filtrages spécifiques afin de maintenir la circulation vers le dehors de la recherche, les va-et-vient documentaires, tout en préservant toutefois la possibilité toujours renégociable par le collectif davoir un espace clos de travail, de réserve documentaire, réserve de données en devenir, où lon peut parler, écrire, expérimenter « barbare » voire « hérétique ». Liberté inconditionnée pour lexercice de la recherche, espace qui est en quelque sorte le lieu de la mixité entre modes de recherche et antichambre des modes dexposition de la recherche.

Cela est dautant plus important que la production (collective aux échelles prés, y compris dans le cas des individus toujours déjà pris dans leur milieu « cognitif productif », des œuvres et des travaux, repose sur des rapports variables entre transparence et opacité, pratiques de la rétention calculée, entre procédures de construction de la preuve, de la testabilité et puissance et statut des communautés interprétatives.

Les possibilités de traiter des données non-structurées ou semi structurées (petit ou gros corpus) de manière émergente (bottom up) à partir de traitements statistiques relativement simples, mais aussi à présent à partir dalgorithmes issus du Deep learning et des travaux de lIA, afin de faire apparaître des structures, des formes, permettent denvisager à terme une prolifération des formes sémiotiques associées, des blocs sémantiques comme graphes pour des orientations dans les espaces 205des savoirs. Ce que les approches industrielles et celles des systèmes dinformation dentreprise ont peu à peu mis en place pourrait être source dinspiration pour les plateformes de lédition numérique en vue de renforcer larsenal hybride pour la « transversalité »

Peut-être serait-il donc intéressant de réfléchir à des manières de faire co-habiter divers types de solutions, de technologies, de normes, de fonctions lors de la construction des infrastructures dans le domaine des sciences en général et des SHS en particulier. On peut imaginer que selon le niveau déchelle auquel on considère les pratiques et les processus de différenciation des champs de recherche, les fonctionnalités spécifiques qui y sont privilégiées ainsi que leurs domaines dinterventions, les modes décriture / lecture activées, il nest pas nécessaire de mettre en place des configurations de normes, de metadata par trop intrusives et coercitives. De même est-il possible et même souhaitable de créer des milieux dintelligence troués, sorte darchipels où sont utilisés (et sont développés) selon les singularités des recherches, leur hétérogénéité, des technologies de datamining et de mapping orientées « bottom up » et qui prennent en charge les données non-structurées ou semi-structurées.

Cela est dautant plus important que lon pourrait être tenté à partir les mémoires hypertextuelles en réseaux des sciences, des textes SHS et pourquoi pas à partir du monde des formes courtes des réseaux (Twitter, Facebook) une « explicitation » des « communautés interprétatives » qui enveloppent et traversent les mondes scientifiques, les mondes des SHS en particulier80. Cette explicitation consistant à une cartographie (toujours en droit comme en fait, évolutive) des agencements interprétatifs constitutifs de ces communautés.

Les devenirs des infrastructures de lédition numérique scientifiques sont encore loin de ces développements et les intelligences collectives, de milieux relativement sophistiquées. Cela devrait engager encore plus fortement le mouvement de lOpen Archive à la pointe de ses immenses responsabilités politico-cognitives afin doccuper le cœur partout présent 206des milieux de lintelligence afin doffrir de manière inconditionnée, des puissances inédites pour le libre exercice des facultés. Marche vers le commencement de linfini ?

Jean-Max Noyer

Professeur Émérite des Universités Université de Toulon

Consultant

1 (http://press.openedition.org/241)

2 Lirrésistible montée de lalgorithmique, Méthodes et concepts en SHS, les Cahiers du numérique 2014/4 (Vol. 10) http://cache.univ-tln.fr:2057/revue-les-cahiers-du-numerique-2014-4-page-63.htm et Pierre Lévy, http://pierrelevyblog.com/2013/02/17/le-medium-algorithmique/

3 Les infrastructures de recherche en sciences humaines et sociales, Rapport du groupe Infrastructures de lAlliance Athena, Françoise Thibault (DGRI) Bertrand Jouve (CNRS, inSHS) Septembre 2012.

4 Au sens de G. Simondon.

5 Lencyclopédisme en éclats. Lédition scientifique numérique face aux nouvelles mémoires et intelligences en procès Jean-Max Noyer et brigitte juanals https://hal.archives ouvertes.fr/halshs-00512157 in Papy F. et Guyot B. Lédition scientifique : analyses et perspectives, Lavoisier Hermès Science, INIST-Wiley (UK), p. 203-221, 2008, coll. STI – Sciences et Techniques de Encyclopédisme en éclats : réflexions sur la sortie des « essences » lInformation et http://www.cosmopolis-rev.org/2014-3-4-f

6 M. Foucault, D. Eribon « Pour en finir avec le mensonge », Le Nouvel Observateur, 1985.

7 G. Bennington, J. Derrida, Jacques Derrida, Édition du Seuil, Collection Les contemporains, 1991, Paris. Jacques Derrida, Ulysse gramophone, Deux mots pour Joyce, Édition Galilée, 1987, Paris.

8 Smith J. W T. (1999). The deconstructed journal – a new model for academic publishing. Learned Publishing, 12, 79-91. Voir sur ces questions Gabriel Gallezot, Jean-Max Noyer De la numerisation des revues à lexperimentation dune édition de recherche processuelle, technologies de linformation et intelligences collectives, Hermes-Lavoisier, p. 263-280, 2010.

9 En 1978, devant des étudiants californiens, Michel Foucault rêvait à haute voix de « livres bombes » : ils ne tueraient personne, mais « disparaîtraient peu de temps après quon les aurait lus ou utilisés ».

10 Liquid Journals : Knowledge Dissemination in the Web Era, Position Paper by Marcos Baez, Fabio Casati, Dipartimento di Ingegneria e Scienza dellInformazione, University of Trento.

11 Voir Bruno Latour et alii et aussi Jean-Pierre Courtial : « Structure fractale des connaissances scientifiques ». Essai de résumé des travaux de Rafael Bailon Moreno (Communication personnelle) et The pulsing structure of science : Ortega y Gasset, Saint Matthew, fractality and transfractality in Scientometrics, 2007 DOI : 10.1007/s11192-007-1600-8 ; Rafael Bailón-Moreno University of Granada, Rosario Ruiz-Baños University of Granada, Encarnación Jurado Alameda University of Granada, Jean-Pierre Courtial University of Nantes Enfin voir, R. Bailon-Moreno, Ingeniera del conocimiento y vigilancia tecnologica aplicada a la investigacion en el campo de los tensioactivos. Desarollo de un modelo ciencimetrico unificado, 2003, Grenade : Thèse Université de Grenade.

12 On tentera dutiliser de manière indirecte lhypothèse développée dans le contexte dune réflexion générale sur la Valeur par Brian Massumi Intitulé « 99 Theses on the Revaluation of Value. A Postcapitalist Manifesto ».

13 Felix Guattari, Les Trois Écologies, Ed. Galilée, 2008.

14 Nous prenons ici « Noopolitique » dans le sens que lui donne Bernard Stiegler à savoir, « Politique de lEsprit », associé à « Psychopouvoir » comme lieu central aujourdhui de lanthropologie politique. Nous le prenons aussi dans le sens de John Arquilla et David Ronfeldt, « Noopolitik » (opposé à Realpoliik) appliqué cette fois à la redéfinition des rapports de puissance dans le domaine de la géopolitique et de la stratégie, à partir des intelligences collectives et des subjectivités en conflit.

15 Bernard Stiegler, 1994.

16 Jean-Max Noyer, 1995.

17 A. N. Whitehead, Procès et Réalité, éd. Gallimard, Paris 1995.

18 Jim Gray, The Fourth Paradigm : Data-Intensive Scientific Discovery, Microsoft. 2009. Et lirrésistible montée de lalgorithmique, Méthodes et concepts en SHS, Les Cahiers du numérique 2014/4 (Vol. 10) http://cache.univ-tln.fr:2057/revue-les-cahiers-du-numerique-2014-4-page-63.htm

19 Bruno Latour, Le grand partage, Comment redistribuer le Grand Partage ? 1983 In Revue de Synthèse, no 110, Avril/Juin, p. 203-236, 1983 [Reprint in La Revue du Mauss No 1, p. 27-65, 1988.

20 Bertrand Saint-Sernin, Le rationalisme qui vient, Collection Tel (no 346), Gallimard, 2007.

21 Commission on Cyberinfrastructure for the Humanities and Social Sciences. Berkeley, 2004. Metadata as Infrastructure ; Interoperability ; and the Larger Context. Voir aussi http://www.people.virginia.edu/~jmu2m/Cyberinfrastructure.RLG.html et Cyberinfrastructure for the humanities and social sciences : advancing the humanities research agenda, https://dl.acm.org/citation.cfm?id=1255217&dl=ACM&coll=DL

22 Geoffrey C. Bowker University of Illinois at Urbana-Champaign : « LHistoire des Infrastructures Informationnelles » in revue Solaris, 1995, accessible à http://gabriel.gallezot.free.fr/Solaris/d04/4bowker.htmlqW<

23 Yves Citton, Comment nous lisons Lecture rapprochée, hyperlecture, lecture machinique, http://www.yvescitton.net/wp-content/uploads/2017/09/HAYLES-LireEtPenserEnMilieuxNumeriques-Chap3-CommentNousLisons-2016.pdf et Maryanne Wolf Proust and the Squid : The Story and Science of the Reading Brain ? 2008.

24 www.arXiv.org

25 Paul Guinsparg, It was twenty years ago today, Physics and Information Science, Cornell University, in arXiv (Submitted on 14 Aug 2011 (v1), last revised 13 Sep 2011 (this version, v2))

26 Idem.

27 Pour suivre Whitehead A.N. (1929). Procès et réalité : Essai sur la cosmologie. Gallimard, 1995.

28 Tim Berners-Lee, Fischetti, Mark, Weaving the Web, HarperSanFrancisco, 1999 et The Semantic Web A new form of Web content that is meaningful to computers will unleash a revolution of new possibilities by Tim Berners-Lee, James Hendler and Ora Lassila, Scientific American : Feature Article : The Semantic Web : May 2001.

29 Synthèse tirée de Roger T. Pedauque, « Le Document à la lumière du numérique ». Bulletin des bibliothèques de France (BBF), 2007, no 4, p. 122-123. Et Roger T. Pédauque, Document : forme, signe et médium, les re-formulations du numérique. 2003 https://archivesic.ccsd.cnrs.fr/sic_00000511/document https://en.wikipedia.org/wiki/Semantic_Web_Stack

30 Système expert : https://fr.wikipedia.org/wiki/Syst%C3%A8me_expert et Jean-Max Noyer : « Lexpertise stratégique face aux développements de lintelligence artificielle », Études internationales Volume 19, numéro 4, 1988 https://www.erudit.org/fr/revues/ei/1988-v19-n4-ei3035/702416ar.pdf

31 Sur ces points voir parmi beaucoup de travaux : Ontologies pour le web sémantique, Jean Charlet, Bruno Bachimont, Raphaël Troncy, http://www.researchgate.net/publication/228905296_Ontologies_pour_le_web_semantique ; What Is an Ontology ? Nicola Guarino, Daniel Oberle, Steffen Staab, https://iaoa.org/isc2012/docs/Guarino2009_What_is_an_Ontology.pdf

32 Henry Corbin LImagination créatrice dans le soufisme dIbn Arabî, Édition Entreals, Paris, 2006.

33 Carl Hewitt, « Formaliser le raisonnement de bon sens pour une coordination évolutive de linformation incohérente et robuste à laide du Direct LogicTM Reasoning et du modèle Actor. » ; Formalizing common sense reasoning for scalable inconsistency-robust information coordination using Direct LogicTM Reasoning and the Actor Model, https://hal.archives-ouvertes.fr/hal-01148501v12, 2017.

34 « Ontologies pour le web sémantique », Jean Charlet Bruno Bachimont, Raphaël Troncy, https://www.researchgate.net/publication/228905296_Ontologies_pour_le_web_semantique

35 Idem.

36 Pierre Lévy « IEML : finalités et structure », Working paper, Archives SIC, 2006. En ligne Voir aussi https://pierrelevyblog.com/tag/ieml/

37 « Du flux dinformation fondé sur les documents au flux dinformation fondé sur les connaissances en science et technologie Le TIB – Leibniz Information Centre for Science and Technology a publié un article de référence sur exposé de position sur lOpen Research Knowledge Graph », « From document-based to knowledge-based information flows in science and technology The TIB – Leibniz Information Centre for Science and Technology has published a position paper on the Open Research Knowledge Graph », http://www.tib.eu/en/service/news/details/tib-publishes-position-paper-on-open-research-knowledge-graph Bref ce type de « graphe ouvert » (ORKG) doit être constitué et organisé à partir de quatre sources complémentaires : « Les métadonnées, les données, les taxonomies, les ontologies et les modèles dinformation existants, car les procédures automatisées à elles seules ne permettent pas dobtenir la couverture et la précision nécessaires ; la “curation” entièrement manuelle prend trop de temps ; les bibliothécaires nont pas lexpertise nécessaire dans le domaine ; et les scientifiques manquent des compétences nécessaires en matière de représentation des connaissances. En combinant les quatre stratégies de manière significative, ils peuvent converger de manière performante. »

38 Zacklad M., « Introduction aux ontologies sémiotiques dans le Web Socio Sémantique ».Archives SIC, 2005. En ligne : [http://archivesic.ccsd.cnrs.fr/sic_00001479]

39 Bruno latour : Irréductions in Les Microbes : guerre et paix, suivi de Irréductions, 1984 Ed. La Découverte.

40 « Toi qui marches, il ny a pas de chemin, le chemin se fait en marchant » Antonio Machado.

41 Stephen Ramsay, Reading Machines : Toward an Algorithmic Criticism, University of Illinois, Urbana, Chicago and Springfield, 2011.

42 Pierre Lévy, Quest ce que le virtuel ? La lecture, ou lactualisation du texte, (la virtualisation du texte) 1998, Ed. La Découverte.

43 Johan Bollen, Herbert Van de Sompel, Aric Hagberg, Luis Bettencourt, Ryan Chute, Marko A. Rodriguez, Lyudmila Balakireva, Clickstream Data Yields High-Resolution Maps of Science, www.plosone.org, 2009.

44 Rafael Bailón-Moreno, Encarnación Jurado Alameda, Rosario Ruiz-Baños, Jean-Pierre Courtial The pulsing structure of science : Ortega y Gasset, Saint Matthew, fractality and transfractality Scientometrics 2007.

45 Voir sur ces questions les travaux de David Chavalarias, David Chavalarias, Jean-Philippe Cointet Phylomemetic Patterns in Science Evolution—The Rise and Fall of Scientific Fields.

46 Whitehead A. N., Procès et Réalité, Éd. Gallimard, Paris, 1995.

47 Pierre Lévy, Les technologies de lintelligence. LAvenir de la pensée à lère informatique, Paris, La Découverte, coll. Sciences et société, 1990.

48 Idem.

49 Œuvre de Jacques Derrida à partir de De la grammatologie et de manière directe pour notre propos « Signature, Évènement, Contexte », 1971 disponible à http://laboratoirefig.fr/wp-content/uploads/2016/04/SIGNATURE.pdf

50 De « Mapping the Dynamics of Science and Technology, Sociology of Science in the Real World » Callon, Michel, Rip, Arie, Law, John 1986 à Collaboration and cognitive structures in social science research fields. Towards socio-cognitive analysis in information systems, Peter Mutschke, Anabel Quan Haase Scientometrics, Vol. 52, No. 3 (2001) 487–502 et Science models as value-added services for scholarly information systems Peter Mutschke • Philipp Mayr • Philipp Schaer • York Sure, Scientometrics (2011) 89:349–364. – Plus récemment, dans la suite de la sociologie des sciences latourienne voir, « Great Expectations méthodes quali-quantitative et analyse des réseaux sociaux » par Tommaso Venturini ; « Hyphe, a Curation-Oriented Approach to Web Crawling for the Social Sciences » par Mathieu Jacomy, Paul Girard, Benjamin Ooghe-Tabanou, Tommaso Venturini ; et « Quantitative and Qualitative STS : The intellectual and practical contributions of scientometrics, par Sally Wyatt, Staša Milojević, Han Woo Park and Loet Leydesdorff.

51 Xavier Polanco, « Aux sources de la scientométrie », Revue Solaris, in dossier nº 02, Bibliométrie, Scientométrie, Infométrie, sous la direction de Jean-Max Noyer, 1995.http://gabriel.gallezot.free.fr/Solaris/d02/2polanco1.html et Callon, Courtial et Penan (1993). La Scientométrie, Paris : PUF ; Courtial, J. P. (1990). Introduction à la scientométrie. De la bibliométrie à la veille technologique. Paris : Anthropos Economica ; Courtial, J. P. (ed.). (1994). Science cognitive et sociologie des sciences. Paris : PUF.

52 Geneviéve Teil & Bruno Latour, The Hume machine, can association networks do more than formal rules ? How can we give qualitative analyses in social science mechanical means for dealing with large bodies of heterogeneous data ?SEHR, volume 4, issue 2 : Constructions of the Mind 1995.

53 M. Callon, J. P. Courtial, F. Laville, Co-word analysis as a tool for describing the network of interactions between basic and technological research : The case of polymer chemsitry ; https://link.springer.com/article/10.1007/BF02019280

54 « Actant » est un terme sémiotique utilisé pour effacer la différence entre les acteurs humains et les non-humains objets. Il désigne tout (ce qui peut être dit) pour agir dans une histoire.

55 Michel Callon, La dynamique des acteurs réseaux sociaux économiques, CSI, Working paper1990.

56 idem.

57 The Hume machine, can association networks do more than formal rules ?, In Stanford Humanities Review Vol. 4, no 2 (with G. Teil), p. 47-66, 1995 Geneviève Teil & Bruno Latour SEHR, volume 4, issue 2 : Constructions of the Mind Updated 4 June 1995.

58 “The hume machine, can association networks do more than formal rules ?”, In Stanford Humanities Review Vol. 4, no 2 (with G. Teil), p. 47-66, 1995. Geneviéve Teil & Bruno Latour SEHR, volume 4, issue 2 : Constructions of the Mind Updated 4 June 1995. Notre procédure (disent Latour-Teil) est liée aux idées utilisées dans le domaine des réseaux de neurones et par les connexionnistes. Par exemple, voir David E. Rumelhart, James L. McClelland et le PDP Research Group, Traitement parallèle distribué : Explorations dans la microstructure de la cognition (Cambridge, MA : MIT Press, 1988). Les réseaux de neurones résolvent avec élégance certaines difficultés de calcul et de reconnaissance de forme en court-circuitant la programmation traditionnelle par étapes et par règles. Cependant, ils présupposent lexistence de formes très structurées, soit au début, soit dans leur sortie. Même sils offrent certains avantages pour la programmation de la machine Hume, ils nont aucun moyen de résoudre le problème fondamental de son architecture : il ny a pas de formes structurés pour commencer, même pour récompenser le réseau.

59 Geneviève Teil, Candide, un outil de sociologie assistée par ordinateur pour lanalyse quali-quantitative de gros corpus de textes, www.theses.fr/1991ENMP0291

60 Carl Hewitt, Formalizing common sense reasoning for scalable inconsistency-robust information coordination using Direct Logic™ Reasoning and the Actor Model, disponible à https://hal.archives-ouvertes.fr/hal-01148501v12 2017.

61 François Bourdoncle, Lintelligence collective dusage. Co-fondateur, Exalead, Dassault in Technologies de linformation et intelligences collectives, Jean-Max Noyer, Brigitte Juanals, éd. Hermes-Lavoisier 2011.

62 Yves Citton, Comment nous lisons ? Lecture rapprochée, hyperlecture, lecture machinique http://www.yvescitton.net/wp-content/uploads/2017/09/HAYLES-LireEtPenserEnMilieuxNumeriques-Chap3-CommentNousLisons-2016.pdf

63 Stephen Ramsay Reading Machines : Toward an Algorithmic Criticism (Topics in the Digital Humanities) 2011.

64 Pierre Lévy, Quest ce que le virtuel ? La lecture, ou lactualisation du texte, (la virtualisation du texte) 1998, Éd. La Découverte, disponible à : http://www.manuscritdepot.com/edition/documents-pdf/pierre-levy-le-virtuel_01.pdf et aussi http://hypermedia.univ-paris8.fr/pierre/virtuel/virt0.htm

65 Franco Moretti, Graphes, cartes et arbres. Modèles abstraits pour une autre histoire de la littérature, Les prairies ordinaires, 2008.

66 Pour reprendre ici Marc Escola dans un commentaire de louvrage de Franco Moretti.

67 François Bourdoncle, « Internet et les systèmes dinformation (SI) de lentreprise », Réalités Industrielles, Novembre 2010.

68 François Bourdoncle Lintelligence collective dusage Co-fondateur, Exalead, Dassault in Technologies de linformation et intelligences collectives, Jean-Max Noyer, Brigitte Juanals, éd. Hermes-Lavoisier 2011.

69 Idem.

70 François Bourdoncle, Patrice Bertin, « Le Web, et encore le Web, Recherche daiguilles dans une botte de liens », La recherche No 328, 2 2000.

71 Tracey Stanley Search Engines Corner Alta Vista LiveTopics, 19 May 1997 in ARIANDN, http://www.ariadne.ac.uk/issue9/search-engines#author1

72 Jean-Max Noyer, Les vertiges de Lhypermarketing : dataminig et production sémiotique : https://books.openedition.org/pressesmines/1662?lang=fr

73 Science Citation Index et Social Science Citation Index.

74 Xavier Polanco, « Aux sources de la scientométrie », Revue Solaris, in dossier no 02 Bibliométrie, Scientométrie, Infométrie, dir. Jean-Max Noyer, 1995.

75 http://gabriel.gallezot.free.fr/Solaris/d02/2polanco1.html

76 E. Garfield, Citation indexing, New York, Wiley, 1979. J.-P. Courtial, M. Callon, F. Laville, « Co-words analysis as a tool for describing the networks of interaction between basic and technological researches : the case of polymer chemistry », Scientometrics, 22, 1, 1991. H. Small, « Co-citation in the scientific literature : a new measure of the relationship between two documents », Journal of the American Society for Information Science, 24, 1973.

77 Brian Kleiner, Isabelle Renschler, Boris WERNLI, Peter Farago & Dominique Joye, Pour une réflexion sur les infrastrutures de recherches en sceinces sociales, Zurich, 2013.

78 Alolab, Université de Paris 7, Laboratoire Crics.

79 Hofstader D. Ma Thémagie, Paris, Interéditions, 1988 et Gödel, Escher, Bach – Les brins dune guirlande éternelle, 2008.

80 Stanley Fish, Your Ps and Bs : The Digital Humanities and Interpretation, January 23, 2012 Stanley Fish, Quand lire cest faire. Lautorité des communautés interprétatives, trad. de langlais (américain) par Étienne Dobenesque, préface dYves Citton, postface inédite de Stanley Fish, Paris, 2007 ; et Stanley Fish, https://opinionator.blogs.nytimes.com/2011/12/26/the-old-order-changeth/