Aller au contenu

Classiques Garnier

Comptes rendus de lecture

233
COMPTES RENDUS DE LECTURE


HILDENBRAND Zuzana, Emprunts lexicaux à l'allemand dans le français contemporain, Olomouc (République tchèque), Univerzita Palackého v Olomouci, 2012, 156 pages — ISBN 978-80 -244-3217-5.
Ce livre se donne pour objectif d'étudier la fréquence des mots d'origine allemande dans des écrits journalistiques (Le Figaro, Libération et Le Nouvel Observateur) et de mesurer leur connaissance et leur utilisation par des locuteurs français. Pour cela, Zuzana Hildenbrand commence par exposer les travaux qui ont été conduits dans ce domaine en montrant les intérêts et les limites de chacun d'eux (ch. 1). Puis, dans le chapitre 2, elle justifie son choix de se fonder sur les marques étymologiques du TLFi pour constituer son corpus d'étude. Mais elle procède à une sélection drastique des données ainsi obtenues (4001exèmes), qui lui paraissent à juste titre hétérogènes, en justifiant les exclusions auxquelles elle procède  :mots d'autres origines qui ont transité par l'allemand, mots allemands fabriqués avec des formants latins ou grecs, mots où l'origine allemande n'est pas assurée, mots situés au niveau du germanique, du francique, de l'alémanique... Sont également éliminés, comme n'appartenant pas à la langue commune, les termes de spécialité (mais cromorne n'aurait sans doute pas dû l'être), ainsi que les archaïsmes historiques (du type lansquenet, schilling, etc., mais l'élagage a sans doute été trop fort puisque blockhaus, bunker, etc., encore bien utilisés en français contemporain, ne figurent pas dans les lexèmes retenus. Pourquoi feldwebel, absent du Petit Robert, est-il retenu etpas feld-maréchal, qui y est présent ?). Après une ultime réduction du corpus fondée sur des informations étymologiques cherchées dans des sources allemandes, le corpus final compte 103 lexèmes, dont 6 verbes et 4 adjectifs, le reste étant des substantifs (mais 4 sont devenus adjectifs, ce qui porte leur nombre à 8). Le chapitre suivant (3) adopte un point de vue historique en indiquant la date de première attestation en français de ces 103 lexèmes puis procède à un historique des relations franco-allemandes en distinguant les périodes les plus significatives de contacts.
L'avant-dernier chapitre (4), de près de 60 pages, est consacré à l'étude de la fréquence de ces emprunts dans des sources journalistiques généralistes écrites (entre le 1~ janvier 2000 et le 31 octobre 2010), avec la justification du recours à ces sources (plutôt qu'à un corpus littéraire par exemple) mais avec
Cah. Lexicol. 104, 2014-1, p. 233-242
234 aussi l'exposé précis des divers écueils, difficultés et biais provenant de la consul- tation des archives informatisées des trois titres retenus (cités ci-dessus et qui n'ont pas le même fonctionnement). Outre qu'il est impossible de connaître le nombre de mots de ce corpus pour se livrer ensuite à des calculs de pourcentages, le nombre d'articles (et pas d'occurrences) indiqués à chaque requête peut varier, légèrement, dans le temps, de manière inexplicable. Les contextes consultables (sauf s'ils sont trop nombreux, de l'ordre de plusieurs milliers) permettent le plus souvent de décider s'il s'agit bien du lexème recherché et non d'un paronyme ou d'une autre acception, mais ce n'est néanmoins pas toujours le cas. Ce qui est une nouvelle source d'approximation reconnue, dont l'ampleur est néanmoins considérée comme ne remettant pas en cause les résultats globaux. Des problèmes surgissent aussi avec les formes conjuguées des verbes, l'impossibilité de formu- ler les requêtes en tenant compte de la catégorie grammaticale, des noms propres (avec la neutralisation de l'opposition majuscule et minuscule), etc. Peuvent égale- ment être donnés comme résultats indésirables des mots étrangers homonymes ou proches de celui de la requête (anglais bride `mariée' et bride `partie du harnais d'un cheval'). Sont ensuite examinés en détail des cas d'homonymie (foudre m. `sorte de tonneau', d'origine allemande, vs foudre £) et la présence des lexèmes étudiés dans des expressions plus ou moins figées selon les cas (faire gaffe). Une étude comparative —avec des tableaux récapitulatifs (en couleurs) très clairs — du nombre d'occurrences dans les trois journaux montre des différences importantes selon les lexèmes (du fait de la concordance ou discordance entre le sémantisme des lexèmes et les thèmes des articles des journaux, avec aussi des effets de mode). Elle montre aussi parfois des parallélismes d'emplois, mais également de temps en temps des disparités numériques peu explicables entre les trois titres pour un même lexème. Sont exposées aussi les limites du classement selon la fréquence puis une application des lois de Zipf à ces résultats, avec des conclusions variables. Ce chapitre se clôt avec d'autres caractéristiques comme la fréquente expressivité (inhérente et adhérente mais pas contextuelle, selon la typologie de TSlgyesi 2008), le caractère péjoratif pris par certains lexèmes et l'obsolescence de certains autres.

L'ultime chapitre expose la méthodologie d'une enquête pour tester la connaissance de ces lexèmes et leur emploi éventuel par des locuteurs natifs, masculins et féminins, de divers âges, d'origines géographiques diverses (avec une répartition très inégale, la Lorraine pesant à elle seule pour la moitié du panel) et de niveaux d'études très différents, vivant en ville ou à la campagne (quatre choix selon la taille de la commune), et la connaissance de la langue allemande ainsi que le degré de sympathie pour le pays. Mais la méthode des quotas n'est pas strictement respectée pour pouvoir tirer des conclusions générales. La première partie du questionnaire permet néanmoins de répartir les personnes sondées en différents groupes et d'exploiter les différences de réponses en fonction de l'appar- tenance àcertains groupes (avec des représentations en camemberts colorés)  : si le sexe ne semble pas jouer un grand rôle, l'âge et le niveau d'études semblent déterminants dans la plus ou moins grande connaissance des lexèmes d'origine
235 allemande testés  :les plus âgés et les plus instruits sont ceux qui en connaissent et en emploient le plus. Malgré un délai assez bref de collecte des questionnaires (de l'ordre de deux mois), ce sont pas moins de 168 réponses qui ont été obtenues à un questionnaire portant sur 49 lexèmes (ceux qui présentent une fréquence à l'écrit, dans la presse, entre QJ et 30) avec quatre niveaux de familiarisation  : a) Je ne connais pas; b) Déjà entendu mais pas sûr de la signification; c) Je connais mais je n'utilise pas ; d) Je connais et j'utilise. Dans une ultime colonne à droite, les personnes devaient donner une définition — ne serait-ce qu'approximative — pour s'assurer de la validité de leur réponse b) et surtout c) et d). Des graphiques synthétisent de manière claire toutes ces informations. Puis Zuzana Hildenbrand se livre à une étude qui oppose les emprunts les plus connus (16) et utilisés (15) aux 15 qui le sont le moins, et met ensuite en relation les résultats globaux de l'enquête avec les différentes caractéristiques des personnes qui y ont répondu et en tire des conclusions sur le rôle de chacune d'elles.
Les qualités de réflexion dans l'exposé des objectifs et des moyens pour les atteindre sont remarquables  :rien n'est laissé au hasard ni dans l'ombre dans les méthodes mises en ceuvre et toutes les difficultés ou biais sont exposés et évalués, et si possible contournés. Ce qu'on peut regretter néanmoins, c'est l'absence d'une pré-enquête auprès de Français de différents milieux et différentes générations qui aurait conduit à mieux sélectionner les emprunts retenus pour l'étude. Certaines absences surprennent en effet (blind(er), frichti, panzer...) et des vérifications sur d'autres dictionnaires que le TLFi (paru entre 1971 et 1994 et pas réactualisé) auraient été souhaitables. Si les 103 mots retenus figurent quasiment tous dans le Grand Robert, beaucoup des moins fréquents sont absents du Petit Robert ou sont marqués vx, rare, etc. Ces absences et ces marques d'usage des différents diction- naires monovolurnaires millésimés auraient apporté des informations pertinentes pour conforter les analyses de l'auteur. On regrette aussi que certaines étymologies ne soient pas données (celle de vasistas entre autres), et une réflexion théorique sur l'emprunt aurait également été bienvenue d'autant plus que les linguistes allemands ont beaucoup travaillé dans le domaine ces dernières années. Malgré ces réserves, la rigueur des méthodes employées et leur explicitation parfaitement claire et justi- fiée, jusqu'à la présentation des éventuels biais et des possibilités de les contourner, constituent un modèle dont beaucoup de jeunes chercheurs pourraient s'inspirer.

Jean-François SABLAYROLLES
Université Paris 13, Sorbonne Paris
Cité, LDI (UMR 7187)

236 GALA Nnria et ZOCK Michael (dir), Ressources Lexicales. Contenu, construction, utilisation, évaluation, Amsterdam/Philadelphie, John Benjamins Publishing Company (Lingvisticae Investigationes Supplementa 30), 364 pages — ISBN 978-90-272-3140-6.
Pour les spécialistes en sciences et techniques du langage, l'ouvrage dirigé par Nùria Gala et Michael Zock, Ressources Lexicales. Contenu, construction, utili- sation, évaluation, apporte, dans la conjoncture actuelle, un éclairage et une avancée essentiels. Il donne la démonstration de la place grandissante du lexique, avec comme caractéristique majeure, à mieux faire connaître, un rôle de plus en plus stratégique dévolu aux dictionnaires devenus une des pièces maîtresses de la nouvelle lexico- logie expérimentale. Tous leurs tenants et aboutissants sont convoqués, dès lors que leur remise à jour est devenue incontournable en termes de « ressources  »avec l'introduction de l'électronique. Dix contributions ou chapitres, de trente à quarante pages chacun, nous sont proposés. Leurs contenus sont denses. Dans la meilleure tradition des rédacteurs d'articles d'encyclopédies scientifiques, les dix-sept auteurs contributeurs se sont eux-mêmes fixé de résumer considérablement leurs travaux et leurs résultats et ont ainsi réalisé un exercice difficile d'équilibre entre concision et minutie, capitalisant ici leurs analyses et leurs résultats d'experts. Les choix de présentation et d'édition (iconographie, renvois, glossaire) sont remarquables. Ils vont de pair avec les ambitions informatives et didactiques des exposés.
Centré essentiellement sur la métalexicographie contemporaine périodisée sur trente ans (1980-2010), l'ouvrage affiche des ambitions de survol général à travers l'histoire des techniques et traite de la longue durée historique en remontant aux origines de l'écriture. Il se veut également très complet sur l'accumulation des innovations techniques d'aujourd'hui (en ingénierie des langues), ce qui nécessitait une grande richesse d'exploration et d'exposition des différents traitements qui se sont succédé dans l'espace de travail qui se définit maintenant communément comme le TAL ou le TALN. Seul un report direct aux textes présentés permet- tra d'en apprécier toute la réussite. Dans les limites de ce compte rendu, nous passerons en revue un certain nombre de pistes de discussion que cette somme de contributions ambitionne de mettre en évidence, voire même d'ouvrir sur des bases revisitées. Les liens systématiques entre pratiques lexicographiques et recherche fondamentale et appliquée constituent, à bien des égards, pour un lectorat d'uni- versitaires et de professionnels, une alliance inédite dans son ampleur. D'où le remarquable intérêt de cet ouvrage.
Deux ou trois observations s'imposent dès l'abord quant aux choix de présentation. Sur des sujets qui relèvent directement des derniers développe- ments de la recherche documentaire (semi-) automatique, les auteurs s'appliquent à eux-mêmes la consigne d'apporter à leurs textes une riche documentation en commençant par tous les sites internet utiles reportés en notes. L'Index, qui comprend une rubrique « Ressources, outils, normes, standards  » (p. 362-363), permet une récapitulation très intéressante, qui donne la mesure de l'énorme effort
237 contemporain de réajustements et de standardisations de nos pratiques de l'écrit, en analyse et en production, autrement dit, dans les termes d'un historien des sciences du langage comme Sylvain Auroux —dont le présent ouvrage reprend largement la philosophie —les processus de scripturation, de grammatisation et d'automati- sation. On remarquera par ailleurs l'utilité pédagogique de la rubrique « Sigles  » (p. 363), essentielle pour lever l'obstacle bien connu de ce type de désignations abrégées, opaques pour les non-initiés.
L'intérêt d'avoir adjoint un Glossaire (p. 355-358) mérite également d'être souligné. Il correspond à un souci pédagogique particulièrement abouti pour guider les lecteurs, souvent bien avertis dans un ou plusieurs domaines de spécia- lité, souvent largement néophytes dans les autres. On relèvera, côté traitement automatique, des entrées comme Approche supervisée, Approche non supervisée ou encore le terme importé de l'anglais technique hub, difficiles et trompeurs pour des lecteurs inexpérimentés dans le domaine. Côté linguistique, l'entré collocation et l'entrée corrélée fonction lexicale due à Igor Mel'cuk (exemplifiée, entre autres, par une fonction très connue, l'intensificateur [Mage] (à un degré élevé), qu'on peut retrouver notamment à la page 206 au chapitre 6, « Bénéfices et limites de l'acquisition lexicale dans l'expérience JeuxDeMots  » (p. 187-216), deux termes qui sont absents de l'enseignement des grammaires courantes en langues romanes ou anglaise, seul bagage initial d'un informaticien linguiste débutant. Dans le domaine des neurosciences et de la cognition, la notion de dictionnaire mental ou encore celle de lemme dont l'emploi spécifique s'écarte ici de son acception en morphologie savante flexionnelle et dérivationnelle. Dans le domaine de l'épis- témologie du langage, l'entrée ontologie, une notion dont la spécialisation dans la construction des dictionnaires contemporains serait laborieuse à dégager de sa très longue histoire philosophique, métaphysique et logique (pour s'en convaincre, il suffit de consulter sur le sujet l'article de Paul Clavier dans Le Robert culturel en langue française 2005 d'Alain Rey). Notons que la définition rapide et claire du choix du titre de l'ouvrage lui-même, ressource lexicale, est un vrai plaisir. En voici l'intégralité  : « ouvrage —quel que soit son support —contenant des unités lexicales, lexies, etc., ou des concepts, associés à des informations de nature très différente  :des traductions vers une autre langue (ou vers d'autres langues), des explications à caractère linguistique (origine, caractéristiques grammaticales, emploi, etc.) ou conceptuel (liens thématiques, relations lexicales, etc.)  » (p. 2).
La place occupée par la documentation visuelle va nous donner mainte- nant l'opportunité de passer en revue l'ensemble des auteurs. Dès lors qu'il est question de dictionnairique « classique  » en édition papier, les traitements passent par des choix très élaborés de mise en page que seules les visualisations permet- tront de bien comprendre. En linguistique informatique, l'apport du visuel est d'une importance similaire car les traitements passent par des modes de calculs et des techniques raisonnées spécifiques, nécessitant le recours à des illustra- tions en figures. Dans ces conditions, les dix chapitres sont émaillés de tableaux insérés au fil des exposés. Dans un ouvrage à vocation, on l'a dit, didactique et
238 largement encyclopédique dans ses ambitions d'exhaustivité, leur apport scienti- fique général est important. Commençons par les tableaux récapitulatifs. Ils sont un outil précieux pour opérer des classements et organiser des résultats, comme le montrent la table 6 (p. 32-33), légendée « Ressources électroniques classées selon le type d'information linguistique présente » proposée par Nûria Gala au chapitre 1, « Ressources lexicales mono- et multilingues. Une évolution historique au fil des pratiques et des usages » (p. 1-42), ou encore le tableau 7.3 de Benoît Sagot légendé « Résultats de l'évaluation du WOLF 0.2. » (p. 247), dans son chapitre 7, « Construction de ressources lexicales pour le traitement automatique des langues. Les lexiques morphologiques et syntaxiques Alexina et le Wordnet Libre du Français  » (p. 217-254). En lien avec cette première fonction, signalons les tableaux dont le rôle est purement explicatif. Indispensables en pédagogie contemporaine, ils ont une fonction d'exposition et sont d'autant plus utiles ici que les démarches à décrire sont plus techniques notamment dans les prototypes, avec un exemple comme WordFinder donné par Michael Zock et Didier Schwab au chapitre 10, « L'index, une ressource vitale pour guider les auteurs à trouver le mot bloqué sur le bout de la langue  » (p. 313-354). Mentionnons la figure 10, « Sept méthodes pour accéder aux mots  » (p. 340) ou encore la figure 12, « Problèmes potentiels avec des graphes  :liens croisés pour voisins indirects  » (p. 347).
D'importance égale dans l'histoire des techniques d'édition, ajoutons la visualisation directe d'extraits de dictionnaires papier, reproduits en fac-similés. Citons la figure 1 de Nathalie Gasaglia au chapitre 2, « Appréhender la diversité des dictionnaires monolingues imprimés français de la seconde moitié du xxe siècle afin d'envisager d'en dériver des ressources lexicales électroniques » (p. 43-83), légendée « Extrait du Robert oral-écrit (1989)  » (p. 48) ou la figure 1, remon- tant à 1865 avec Pierre Larousse, proposée par Christophe Rey au chapitre 3, « Dictionnaires d'hier et d'aujourd'hui  :Ressources lexicales par excellence  » (p. 85-118), légendée « Extraits du Nouveau dictionnaire de la langue française  » (p. 101). Ce type de document d'archives prend un intérêt supplémentaire quand il est replacé en début de chaîne dans les étapes modernes de conversion des dictionnaires papier en documents électroniques, celles-ci étant à leur tour bien documentées et visualisées à parts égales. Mentionnons encore de Jean-Marie Pierrel au chapitre 4, « Structuration et usage de ressources lexicales institu- tionnelles sur le français  » (p. 119-151), la figure 4, « Balisage typographique  » (p. 128) illustrant les traitements successifs du Trésor de la langue française (TLF) jusqu'au TLFi (le i indiquant le passage au support informatisé), indispensables pour comprendre la notion contemporaine de balisage. On rapprochera la figure du chapitre 8 de Mathieu Mangent et Chantal Enguehard, « Des dictionnaires éditoriaux aux représentations XML standardisées  » (p. 255-289), qui porte sur des langues africaines peu dotées en dictionnaires, notamment en la comparant avec la figure 3, « Marquage explicite des informations d'un article  » (p. 260).
Dans l'étude des transferts du papier à l'écran, on aura vite compris qu'un grand nombre de ces documentations visuelles relèvent de différents types de
239 captures d'écran qu'on aura voulu imprimer. Les extraits de tables de concordance en donnent de bons exemples, les concordanciers étant une pratique de base dans l'extraction (semi-)automatique d'informations. Mentionnons la figure 1 de Nûria Gala au chapitre 1 légendée « Concordances extraites par le Sketch Engine pour le mot `imitative'«  (p. 21) ; la figure 11 de Paul Sabatier et Denis Le Pesant au chapitre 5, « Les dictionnaires électroniques de Jean Dubois &Françoise Dubois- Charlier » (p. 153-186), qui fait état de la collaboration informatique de Max Silberztein, légendée «  Nooj  :concordance (extrait) dans le Monde Diplomatique  » (p. 167); ajoutons, de Guy Deville, Laurence Dumortier, Jean-Roch Meurisse et Marc Miceli, au chapitre 9, « Ressources lexicales pour l'aide à l'apprentissage des langues  » (p. 291-311), la figure 1, « Outil de lecture CoBra (mot highlight activé) (p. 299) ou encore la figure 3, « Exemple de concordance bruitée (anglais- français)  » (p. 301) ;ces dernières permettant ici de situer la fonction des concor- dances dans un prototype d'aide à l'apprentissage interactif de l'anglais expéri- menté pour un public d'étudiants francophones non spécialistes.
Complétons cet examen par la figure 2 légendée « Résultat de partie de JeuxDeMots  » (p. 197), que proposent Mathieu Lafourcade et Alain Joubert au chapitre 6. Dans le domaine en plein essor des jeux sur le net, leur étude apporte un éclairage important sur les potentialités scientifiques d'exploitation de ces nouvelles pratiques pour traiter des problèmes de génération automatique par prototypes. Elle s'inscrit dans la ligne des tests des psychologues et des neurolin- guistes, avec comme outil le « jeu sérieux  » et le « contre jeu  » ; on y remarque l'apport contemporain de la couleur, contrastant avec le noir et blanc de l'imprime- rie historique. Rappelons que toutes ces captures d'écran sont habituelles dans nos manuels d'initiation à l'informatique comme dans nos présentations PowerPoint.
Les éditeurs du recueil suggèrent (p. x-xr) de prendre les trois premiers chapitres pour constituer une première partie axée sur l'examen des diction- naires antérieurs à l'apparition des moyens électroniques. De ce point de vue, les huit chapitres suivants formeraient une deuxième partie, axée à l'inverse sur les développements contemporains impulsés par l'informatique linguistique. On remarquera que cette lecture n'aboutit pas à une partition explicite au niveau de la présentation dans la table des matières (p. v-vi). Loin d'être négligeable, cette décision est au contraire particulièrement intéressante à resituer et à questionner, une fois l'ouvrage parcouru, et ce n'est pas un de ses moindres mérites que de nous y ramener, grâce à son « état de l'art » des recherches actuelles, aussi vaste qu'exigeant. Examinons les choses d'un peu plus près.
Historiquement, c'est durant la décade 1980-1990 qu'on a souhaité, en métalexicographie, identifier les premières démarcations entre méthodes et objets et leurs points de contact, avec la prise en compte des dictionnaires papier et des premiers modèles de traitements automatiques des entrées lexicales, en taille réelle, à l'échelle des dictionnaires. Elles ont été formulées (notamment par Gaston Gross au cours de La journée des dictionnaires 1995 organisée par Jean Pruvost alors au Centre de recherche Texte/Histoire de l'Université de Cergy Pontoise) en termes
240 d'opposition entre « dictionnaires électronisés  » et « dictionnaires électroniques  ». Vmgt ans plus tard, l'attitude prudente des éditeurs Nùria Gala et Michael Zock est le symptôme d'une évolution. On réfléchit autrement, dans la mesure où l'avancée des travaux a paradoxalement réduit les différences observées, ou tout au moins brouillé certaines frontières.
Les dictionnaires sur support papier qui ont été numérisés s'intègrent à un modèle général de dictionnaires dits « actifs  » ,une nouvelle attente des usagers de dictionnaires modernes qui préfigure des convergences de construction et d'uti- lisation avec leurs rivaux (historiques), les dictionnaires conçus et organisés dès le départ sur des bases électroniques. C'est notamment le cas du TLF devenu TLFi, dont Jean-Marie Pierrel présente les « usages nouveaux  » (chapitre 4.2., p. 135-139). De leur côté, les dictionnaires purement électroniques ont été amenés à explorer de plus en plus les possibilités d'intégrer des caractérisations gramma- ticales et surtout sémantiques de plus en plus fines. Pour y parvenir, paralléle- ment àl'avènement des corpus numérisés fournisseurs de très gros volumes de données «  en vrac  » ou « tout venant  », il est nécessaire d'optimiser leur utilisation. Celle-ci passe par des efforts de définition du sens, étayés par des consultations d'informations puisées dans des ressources « classiques  », largement fournies par nos connaissances encyclopédiques. Les supports électroniques permettent des jonctions d'extraction d'informations envases communicants, compte tenu du fait que les classements alphabétiques traditionnels désormais périmés sont remplacés par des réseaux.
Les dictionnaires électroniques « parlent de tout  », selon une formule d'Henri Meschonnic, rappelée dans l'ouvrage. Donnons ici deux exemples. Tout d'abord de façon tout à fait claire, c'est le cas, en génération automatique, du « prototype » d'index de mots en réseaux sémantiques, WordFinder, déjà cité, conçu pour aider les producteurs de phrases et de textes à « trouver le mot bloqué sur le bout de la langue  », comme l'indique le titre du chapitre 10 rédigé par Michael Zock et Didier Schwab. Il est construit sur la base d'informations fournies par l'encyclopédie en ligne Wikipedia. Un autre cas intéressant est le dictionnaire Les Verbes français (LUF). Réalisé en équipe au LADL et édité en version papier en 1997 par Jean Dubois et Françoise Dubois-Charlier, il a été perfectionné et mis en ligne par Paul Sabatier, Denis Le Pesant (rédacteurs du chapitre 5), et Max Silberztein. Apparenté initialement aux lexiques-grammaires de Maurice Gross, il pourrait sembler sans rapport avec l'exemple précédent. Ses a priori méthodologiques de départ donnent la priorité non pas aux concepts et aux défini- tions encyclopédiques mais à la syntaxe et à la morphologie dérivationnelle pour construire les réseaux de correspondances entre les entrées verbales, systémati- quement décrites dans des combinatoires syntaxiques désormais classiques, les valences de Lucien Tesnière. Tout le travail sur la syntaxe et la morphologie est à mettre plutôt en rapport avec l'acquis normé des dictionnaires et grammaires du français contemporain. Mais à y regarder de plus près, l'introduction de propriétés sémantiques systématiquement rapportées aux phrases passe par des classements
241 dits « ontologiques  » (voir particulièrement p. 168-183). En tant que tels, ces classements assortis de « domaines  » du vocabulaire, ordinaire ou spécialisé —tout à fait stratégiques pour organiser et distribuer les combinatoires lexicales et notam- ment inclure par listages les formes figées et semi-figées —puisent précisément directement dans les contenus encyclopédiques, rédigés à la main de la façon la plus classique, ce qui met LUF en articulation explicite, à son tour, avec les diction- naires précédant l'apparition des outils électroniques, dictionnaires de langue et dictionnaires encyclopédiques confondus, reconnus comme socles incontournables du calcul des sens de base. Cette remarque est déjà amorcée dans la synthèse intro- ductive de Nùria Gala au chapitre 1  : « les sources de la lexicographie sont de fait les mêmes que celles de l'encyclopédie » (note 2, p. 2), si on considère que les dictionnaires électroniques qui sont maintenant nos dictionnaires contemporains entrent dans le champ d'une lexicographie du vingt et unième siècle.
Revenons tout particulièrement sur l'intérêt des choix de présentation histo- rique qui offrent, dans l'ouvrage, un cadrage d'ensemble aux questions soulevées de lexicologie théorique et appliquée, avec ses deux chapitres généralistes 1 et 7. Dans le premier, Nùria Gala se place dans une perspective d'histoire générale des techniques qui précèdent nos usages contemporains, monolingues mais aussi large- mentmultilingues, grâce aux traductions semi-automatiques. Complémentairement, au chapitre 7, Benoît Sagot nous fait saisir, dans une perspective globale centrée sur WordNet, toute la portée du développement des ressources lexicales propre- mentdites, avec pour caractéristique générale l'apparition des systèmes statistiques permettant de traiter les grands nombres et complétant les systèmes symboliques historiquement majoritaires. Ce deuxième tour d'horizon met en relief un souci de ne sacrifier aucun secteur de caractérisation si l'on veut disposer d'informations « riches  » et de « bonne qualité  »dans les applications d'ingénieurs.
Sur la nature des échanges langagiers et sur les passages de l'épilinguistique au métalinguistique, Ressources Lexicales est donc un livre qui se veut à la fois historique et technique. Il soutient la thèse du rôle central du lexique, dans une position claire  :rassembler les meilleurs spécialistes investis dans la confection des dictionnaires contemporains, ou ressources, et donner la parole à des praticiens, lexicographes, grammairiens et informaticiens experts en traitements automa- tiques, au risque —assumé — de se faire taxer de «  technicisme  »par les philosophes du langage. Nùria Gala et Michael Zock ont en leur faveur une conjoncture scien- tifique dans laquelle on privilégie les expérimentations rendues nécessaires avec le passage au tout numérique. D'où un vécu largement partagé dans la communauté scientifique, ici le monde universitaire francophone. Cette position, le plus souvent admise implicitement, fait consensus en épistémologie du langage autour des travaux de Sylvain Auroux, déjà cité, publiant en 1994 La révolution technologique de la grammatisation. Introduction à l'histoire des sciences du langage (Liège, Mardaga). Il n'est pas inintéressant de relire (p. 165) la définition qu'il y proposait pour tout type de grammaire et tout type de dictionnaire  : « un système d'outils linguistiques [qui] prolonge et transforme l'expertise humaine plus qu'il ne la
242 remplace  ». Actuellement, deux décennies s'étant écoulées, Ressources Lexicales prend acte d'un renversement de priorités dans l'outillage mental formé par le couple grammaire/dictionnaire. Laplace centrale de la syntaxe que reflète indirec- tement le terme de «  grammatisation  » s'efface devant les traitements lexicaux et une priorité conférée par étapes aux dictionnaires, les grammaires étant, de ce point de vue, désormais considérées comme « lexicalisées  ». Sous cet angle, le mot, comme produit culturel très complexe des langues écrites, est au carre- four de toutes les recherches et applications. Précédant et appuyant Auroux, les travaux de Jack Goody sur ce qu'il est convenu d'appeler après lui, par une glose explicative tout à fait heureuse des traductions françaises, la « raison graphique  », demeurent jusqu'à nos jours d'une grande force exploratoire concernant notre actualité puisque le présent ouvrage nous aura apporté ici la précieuse démonstra- tion qu'il n'y a pas de lexique électronique sans réexamen et perfectionnement des formes les plus sophistiquées de l'inscription des langues dont la seule grammaire est insuffisante à fournir toutes les clés.
Avec un accueil d'ores et déjà plus que chaleureux, Ressources Lexicales sera une référence obligée des jeunes chercheurs, étudiants et professionnels, pour lesquels il a été écrit.

Antoinette BALIBAR-MRABTI
Laboratoire MoDyco (UMR 7114)
abalibarmabti@yahoo. fr