Aller au contenu

Comptes rendus de lecture

Accès libre
Support: Numérique
233
COMPTES RENDUS DE LECTURE


HILDENBRAND Zuzana, Emprunts lexicaux à l'allemand dans le
français contemporain, Olomouc (République tchèque), Univerzita
Palackého v Olomouci, 2012, 156 pages — ISBN 978-80 -244-3217-5.

Ce livre se donne pour objectif d'étudier la fréquence des mots d'origine
allemande dans des écrits journalistiques (Le Figaro, Libération et Le Nouvel
Observateur) et de mesurer leur connaissance et leur utilisation par des locuteurs
français. Pour cela, Zuzana Hildenbrand commence par exposer les travaux qui
ont été conduits dans ce domaine en montrant les intérêts et les limites de chacun
d'eux (ch. 1). Puis, dans le chapitre 2, elle justifie son choix de se fonder sur les
marques étymologiques du TLFi pour constituer son corpus d'étude. Mais elle
procède à une sélection drastique des données ainsi obtenues (4001exèmes), qui
lui paraissent à juste titre hétérogènes, en justifiant les exclusions auxquelles elle
procède  :mots d'autres origines qui ont transité par l'allemand, mots allemands
fabriqués avec des formants latins ou grecs, mots où l'origine allemande n'est pas
assurée, mots situés au niveau du germanique, du francique, de l'alémanique...
Sont également éliminés, comme n'appartenant pas à la langue commune, les
termes de spécialité (mais cromorne n'aurait sans doute pas dû l'être), ainsi que les
archaïsmes historiques (du type lansquenet, schilling, etc., mais l'élagage a sans
doute été trop fort puisque blockhaus, bunker, etc., encore bien utilisés en français
contemporain, ne figurent pas dans les lexèmes retenus. Pourquoi feldwebel, absent
du Petit Robert, est-il retenu etpas feld-maréchal, qui y est présent ?). Après une
ultime réduction du corpus fondée sur des informations étymologiques cherchées
dans des sources allemandes, le corpus final compte 103 lexèmes, dont 6 verbes
et 4 adjectifs, le reste étant des substantifs (mais 4 sont devenus adjectifs, ce qui
porte leur nombre à 8). Le chapitre suivant (3) adopte un point de vue historique
en indiquant la date de première attestation en français de ces 103 lexèmes puis
procède à un historique des relations franco-allemandes en distinguant les périodes
les plus significatives de contacts.

L'avant-dernier chapitre (4), de près de 60 pages, est consacré à l'étude
de la fréquence de ces emprunts dans des sources journalistiques généralistes
écrites (entre le 1~ janvier 2000 et le 31 octobre 2010), avec la justification du
recours à ces sources (plutôt qu'à un corpus littéraire par exemple) mais avec

Cah. Lexicol. 104, 2014-1, p. 233-242

234 aussi l'exposé précis des divers écueils, difficultés et biais provenant de la consul-
tation des archives informatisées des trois titres retenus (cités ci-dessus et qui
n'ont pas le même fonctionnement). Outre qu'il est impossible de connaître le
nombre de mots de ce corpus pour se livrer ensuite à des calculs de pourcentages,
le nombre d'articles (et pas d'occurrences) indiqués à chaque requête peut varier,
légèrement, dans le temps, de manière inexplicable. Les contextes consultables
(sauf s'ils sont trop nombreux, de l'ordre de plusieurs milliers) permettent le plus
souvent de décider s'il s'agit bien du lexème recherché et non d'un paronyme
ou d'une autre acception, mais ce n'est néanmoins pas toujours le cas. Ce qui
est une nouvelle source d'approximation reconnue, dont l'ampleur est néanmoins
considérée comme ne remettant pas en cause les résultats globaux. Des problèmes
surgissent aussi avec les formes conjuguées des verbes, l'impossibilité de formu-
ler les requêtes en tenant compte de la catégorie grammaticale, des noms propres
(avec la neutralisation de l'opposition majuscule et minuscule), etc. Peuvent égale-
ment être donnés comme résultats indésirables des mots étrangers homonymes ou
proches de celui de la requête (anglais bride `mariée' et bride `partie du harnais
d'un cheval'). Sont ensuite examinés en détail des cas d'homonymie (foudre m.
`sorte de tonneau', d'origine allemande, vs foudre £) et la présence des lexèmes
étudiés dans des expressions plus ou moins figées selon les cas (faire gaffe). Une
étude comparative —avec des tableaux récapitulatifs (en couleurs) très clairs — du
nombre d'occurrences dans les trois journaux montre des différences importantes
selon les lexèmes (du fait de la concordance ou discordance entre le sémantisme
des lexèmes et les thèmes des articles des journaux, avec aussi des effets de mode).
Elle montre aussi parfois des parallélismes d'emplois, mais également de temps
en temps des disparités numériques peu explicables entre les trois titres pour un
même lexème. Sont exposées aussi les limites du classement selon la fréquence
puis une application des lois de Zipf à ces résultats, avec des conclusions variables.
Ce chapitre se clôt avec d'autres caractéristiques comme la fréquente expressivité
(inhérente et adhérente mais pas contextuelle, selon la typologie de TSlgyesi 2008),
le caractère péjoratif pris par certains lexèmes et l'obsolescence de certains autres.


L'ultime chapitre expose la méthodologie d'une enquête pour tester la
connaissance de ces lexèmes et leur emploi éventuel par des locuteurs natifs,
masculins et féminins, de divers âges, d'origines géographiques diverses (avec
une répartition très inégale, la Lorraine pesant à elle seule pour la moitié du panel)
et de niveaux d'études très différents, vivant en ville ou à la campagne (quatre
choix selon la taille de la commune), et la connaissance de la langue allemande
ainsi que le degré de sympathie pour le pays. Mais la méthode des quotas n'est pas
strictement respectée pour pouvoir tirer des conclusions générales. La première
partie du questionnaire permet néanmoins de répartir les personnes sondées en
différents groupes et d'exploiter les différences de réponses en fonction de l'appar-
tenance àcertains groupes (avec des représentations en camemberts colorés)  : si
le sexe ne semble pas jouer un grand rôle, l'âge et le niveau d'études semblent
déterminants dans la plus ou moins grande connaissance des lexèmes d'origine

235 allemande testés  :les plus âgés et les plus instruits sont ceux qui en connaissent
et en emploient le plus. Malgré un délai assez bref de collecte des questionnaires
(de l'ordre de deux mois), ce sont pas moins de 168 réponses qui ont été obtenues
à un questionnaire portant sur 49 lexèmes (ceux qui présentent une fréquence à
l'écrit, dans la presse, entre QJ et 30) avec quatre niveaux de familiarisation  : a)
Je ne connais pas; b) Déjà entendu mais pas sûr de la signification; c) Je connais
mais je n'utilise pas ; d) Je connais et j'utilise. Dans une ultime colonne à droite,
les personnes devaient donner une définition — ne serait-ce qu'approximative —
pour s'assurer de la validité de leur réponse b) et surtout c) et d). Des graphiques
synthétisent de manière claire toutes ces informations. Puis Zuzana Hildenbrand se
livre à une étude qui oppose les emprunts les plus connus (16) et utilisés (15) aux
15 qui le sont le moins, et met ensuite en relation les résultats globaux de l'enquête
avec les différentes caractéristiques des personnes qui y ont répondu et en tire des
conclusions sur le rôle de chacune d'elles.

Les qualités de réflexion dans l'exposé des objectifs et des moyens pour les
atteindre sont remarquables  :rien n'est laissé au hasard ni dans l'ombre dans les
méthodes mises en ceuvre et toutes les difficultés ou biais sont exposés et évalués,
et si possible contournés. Ce qu'on peut regretter néanmoins, c'est l'absence d'une
pré-enquête auprès de Français de différents milieux et différentes générations qui
aurait conduit à mieux sélectionner les emprunts retenus pour l'étude. Certaines
absences surprennent en effet (blind(er), frichti, panzer...) et des vérifications
sur d'autres dictionnaires que le TLFi (paru entre 1971 et 1994 et pas réactualisé)
auraient été souhaitables. Si les 103 mots retenus figurent quasiment tous dans le
Grand Robert, beaucoup des moins fréquents sont absents du Petit Robert ou sont
marqués vx, rare, etc. Ces absences et ces marques d'usage des différents diction-
naires monovolurnaires millésimés auraient apporté des informations pertinentes
pour conforter les analyses de l'auteur. On regrette aussi que certaines étymologies
ne soient pas données (celle de vasistas entre autres), et une réflexion théorique sur
l'emprunt aurait également été bienvenue d'autant plus que les linguistes allemands
ont beaucoup travaillé dans le domaine ces dernières années. Malgré ces réserves,
la rigueur des méthodes employées et leur explicitation parfaitement claire et justi-
fiée, jusqu'à la présentation des éventuels biais et des possibilités de les contourner,
constituent un modèle dont beaucoup de jeunes chercheurs pourraient s'inspirer.


Jean-François SABLAYROLLES

Université Paris 13, Sorbonne Paris

Cité, LDI (UMR 7187)


236 GALA Nnria et ZOCK Michael (dir), Ressources Lexicales. Contenu,
construction, utilisation, évaluation, Amsterdam/Philadelphie, John
Benjamins Publishing Company (Lingvisticae Investigationes Supplementa
30), 364 pages — ISBN 978-90-272-3140-6.

Pour les spécialistes en sciences et techniques du langage, l'ouvrage dirigé
par Nùria Gala et Michael Zock, Ressources Lexicales. Contenu, construction, utili-
sation, évaluation, apporte, dans la conjoncture actuelle, un éclairage et une avancée
essentiels. Il donne la démonstration de la place grandissante du lexique, avec comme
caractéristique majeure, à mieux faire connaître, un rôle de plus en plus stratégique
dévolu aux dictionnaires devenus une des pièces maîtresses de la nouvelle lexico-
logie expérimentale. Tous leurs tenants et aboutissants sont convoqués, dès lors
que leur remise à jour est devenue incontournable en termes de « ressources  »avec
l'introduction de l'électronique. Dix contributions ou chapitres, de trente à quarante
pages chacun, nous sont proposés. Leurs contenus sont denses. Dans la meilleure
tradition des rédacteurs d'articles d'encyclopédies scientifiques, les dix-sept auteurs
contributeurs se sont eux-mêmes fixé de résumer considérablement leurs travaux
et leurs résultats et ont ainsi réalisé un exercice difficile d'équilibre entre concision
et minutie, capitalisant ici leurs analyses et leurs résultats d'experts. Les choix de
présentation et d'édition (iconographie, renvois, glossaire) sont remarquables. Ils
vont de pair avec les ambitions informatives et didactiques des exposés.

Centré essentiellement sur la métalexicographie contemporaine périodisée
sur trente ans (1980-2010), l'ouvrage affiche des ambitions de survol général à
travers l'histoire des techniques et traite de la longue durée historique en remontant
aux origines de l'écriture. Il se veut également très complet sur l'accumulation des
innovations techniques d'aujourd'hui (en ingénierie des langues), ce qui nécessitait
une grande richesse d'exploration et d'exposition des différents traitements qui
se sont succédé dans l'espace de travail qui se définit maintenant communément
comme le TAL ou le TALN. Seul un report direct aux textes présentés permet-
tra d'en apprécier toute la réussite. Dans les limites de ce compte rendu, nous
passerons en revue un certain nombre de pistes de discussion que cette somme de
contributions ambitionne de mettre en évidence, voire même d'ouvrir sur des bases
revisitées. Les liens systématiques entre pratiques lexicographiques et recherche
fondamentale et appliquée constituent, à bien des égards, pour un lectorat d'uni-
versitaires et de professionnels, une alliance inédite dans son ampleur. D'où le
remarquable intérêt de cet ouvrage.

Deux ou trois observations s'imposent dès l'abord quant aux choix de
présentation. Sur des sujets qui relèvent directement des derniers développe-
ments de la recherche documentaire (semi-) automatique, les auteurs s'appliquent
à eux-mêmes la consigne d'apporter à leurs textes une riche documentation en
commençant par tous les sites internet utiles reportés en notes. L'Index, qui
comprend une rubrique « Ressources, outils, normes, standards  » (p. 362-363),
permet une récapitulation très intéressante, qui donne la mesure de l'énorme effort

237 contemporain de réajustements et de standardisations de nos pratiques de l'écrit, en
analyse et en production, autrement dit, dans les termes d'un historien des sciences
du langage comme Sylvain Auroux —dont le présent ouvrage reprend largement
la philosophie —les processus de scripturation, de grammatisation et d'automati-
sation. On remarquera par ailleurs l'utilité pédagogique de la rubrique « Sigles  »
(p. 363), essentielle pour lever l'obstacle bien connu de ce type de désignations
abrégées, opaques pour les non-initiés.

L'intérêt d'avoir adjoint un Glossaire (p. 355-358) mérite également d'être
souligné. Il correspond à un souci pédagogique particulièrement abouti pour
guider les lecteurs, souvent bien avertis dans un ou plusieurs domaines de spécia-
lité, souvent largement néophytes dans les autres. On relèvera, côté traitement
automatique, des entrées comme Approche supervisée, Approche non supervisée
ou encore le terme importé de l'anglais technique hub, difficiles et trompeurs pour
des lecteurs inexpérimentés dans le domaine. Côté linguistique, l'entré collocation
et l'entrée corrélée fonction lexicale due à Igor Mel'cuk (exemplifiée, entre autres,
par une fonction très connue, l'intensificateur [Mage] (à un degré élevé), qu'on
peut retrouver notamment à la page 206 au chapitre 6, « Bénéfices et limites de
l'acquisition lexicale dans l'expérience JeuxDeMots  » (p. 187-216), deux termes
qui sont absents de l'enseignement des grammaires courantes en langues romanes
ou anglaise, seul bagage initial d'un informaticien linguiste débutant. Dans le
domaine des neurosciences et de la cognition, la notion de dictionnaire mental ou
encore celle de lemme dont l'emploi spécifique s'écarte ici de son acception en
morphologie savante flexionnelle et dérivationnelle. Dans le domaine de l'épis-
témologie du langage, l'entrée ontologie, une notion dont la spécialisation dans
la construction des dictionnaires contemporains serait laborieuse à dégager de sa
très longue histoire philosophique, métaphysique et logique (pour s'en convaincre,
il suffit de consulter sur le sujet l'article de Paul Clavier dans Le Robert culturel
en langue française 2005 d'Alain Rey). Notons que la définition rapide et claire
du choix du titre de l'ouvrage lui-même, ressource lexicale, est un vrai plaisir. En
voici l'intégralité  : « ouvrage —quel que soit son support —contenant des unités
lexicales, lexies, etc., ou des concepts, associés à des informations de nature très
différente  :des traductions vers une autre langue (ou vers d'autres langues), des
explications à caractère linguistique (origine, caractéristiques grammaticales,
emploi, etc.) ou conceptuel (liens thématiques, relations lexicales, etc.)  » (p. 2).

La place occupée par la documentation visuelle va nous donner mainte-
nant l'opportunité de passer en revue l'ensemble des auteurs. Dès lors qu'il est
question de dictionnairique « classique  » en édition papier, les traitements passent
par des choix très élaborés de mise en page que seules les visualisations permet-
tront de bien comprendre. En linguistique informatique, l'apport du visuel est
d'une importance similaire car les traitements passent par des modes de calculs
et des techniques raisonnées spécifiques, nécessitant le recours à des illustra-
tions en figures. Dans ces conditions, les dix chapitres sont émaillés de tableaux
insérés au fil des exposés. Dans un ouvrage à vocation, on l'a dit, didactique et

238 largement encyclopédique dans ses ambitions d'exhaustivité, leur apport scienti-
fique général est important. Commençons par les tableaux récapitulatifs. Ils sont
un outil précieux pour opérer des classements et organiser des résultats, comme
le montrent la table 6 (p. 32-33), légendée « Ressources électroniques classées
selon le type d'information linguistique présente » proposée par Nûria Gala au
chapitre 1, « Ressources lexicales mono- et multilingues. Une évolution historique
au fil des pratiques et des usages » (p. 1-42), ou encore le tableau 7.3 de Benoît
Sagot légendé « Résultats de l'évaluation du WOLF 0.2. » (p. 247), dans son
chapitre 7, « Construction de ressources lexicales pour le traitement automatique
des langues. Les lexiques morphologiques et syntaxiques Alexina et le Wordnet
Libre du Français  » (p. 217-254). En lien avec cette première fonction, signalons
les tableaux dont le rôle est purement explicatif. Indispensables en pédagogie
contemporaine, ils ont une fonction d'exposition et sont d'autant plus utiles ici
que les démarches à décrire sont plus techniques notamment dans les prototypes,
avec un exemple comme WordFinder donné par Michael Zock et Didier Schwab au
chapitre 10, « L'index, une ressource vitale pour guider les auteurs à trouver le mot
bloqué sur le bout de la langue  » (p. 313-354). Mentionnons la figure 10, « Sept
méthodes pour accéder aux mots  » (p. 340) ou encore la figure 12, « Problèmes
potentiels avec des graphes  :liens croisés pour voisins indirects  » (p. 347).

D'importance égale dans l'histoire des techniques d'édition, ajoutons la
visualisation directe d'extraits de dictionnaires papier, reproduits en fac-similés.
Citons la figure 1 de Nathalie Gasaglia au chapitre 2, « Appréhender la diversité
des dictionnaires monolingues imprimés français de la seconde moitié du xxe siècle
afin d'envisager d'en dériver des ressources lexicales électroniques » (p. 43-83),
légendée « Extrait du Robert oral-écrit (1989)  » (p. 48) ou la figure 1, remon-
tant à 1865 avec Pierre Larousse, proposée par Christophe Rey au chapitre 3,
« Dictionnaires d'hier et d'aujourd'hui  :Ressources lexicales par excellence  »
(p. 85-118), légendée « Extraits du Nouveau dictionnaire de la langue française  »
(p. 101). Ce type de document d'archives prend un intérêt supplémentaire quand
il est replacé en début de chaîne dans les étapes modernes de conversion des
dictionnaires papier en documents électroniques, celles-ci étant à leur tour bien
documentées et visualisées à parts égales. Mentionnons encore de Jean-Marie
Pierrel au chapitre 4, « Structuration et usage de ressources lexicales institu-
tionnelles sur le français  » (p. 119-151), la figure 4, « Balisage typographique  »
(p. 128) illustrant les traitements successifs du Trésor de la langue française (TLF)
jusqu'au TLFi (le i indiquant le passage au support informatisé), indispensables
pour comprendre la notion contemporaine de balisage. On rapprochera la figure
du chapitre 8 de Mathieu Mangent et Chantal Enguehard, « Des dictionnaires
éditoriaux aux représentations XML standardisées  » (p. 255-289), qui porte sur des
langues africaines peu dotées en dictionnaires, notamment en la comparant avec la
figure 3, « Marquage explicite des informations d'un article  » (p. 260).

Dans l'étude des transferts du papier à l'écran, on aura vite compris qu'un
grand nombre de ces documentations visuelles relèvent de différents types de

239 captures d'écran qu'on aura voulu imprimer. Les extraits de tables de concordance
en donnent de bons exemples, les concordanciers étant une pratique de base dans
l'extraction (semi-)automatique d'informations. Mentionnons la figure 1 de Nûria
Gala au chapitre 1 légendée « Concordances extraites par le Sketch Engine pour
le mot `imitative'«  (p. 21) ; la figure 11 de Paul Sabatier et Denis Le Pesant au
chapitre 5, « Les dictionnaires électroniques de Jean Dubois &Françoise Dubois-
Charlier » (p. 153-186), qui fait état de la collaboration informatique de Max
Silberztein, légendée «  Nooj  :concordance (extrait) dans le Monde Diplomatique  »
(p. 167); ajoutons, de Guy Deville, Laurence Dumortier, Jean-Roch Meurisse et
Marc Miceli, au chapitre 9, « Ressources lexicales pour l'aide à l'apprentissage
des langues  » (p. 291-311), la figure 1, « Outil de lecture CoBra (mot highlight
activé) (p. 299) ou encore la figure 3, « Exemple de concordance bruitée (anglais-
français)  » (p. 301) ;ces dernières permettant ici de situer la fonction des concor-
dances dans un prototype d'aide à l'apprentissage interactif de l'anglais expéri-
menté pour un public d'étudiants francophones non spécialistes.

Complétons cet examen par la figure 2 légendée « Résultat de partie de
JeuxDeMots  » (p. 197), que proposent Mathieu Lafourcade et Alain Joubert au
chapitre 6. Dans le domaine en plein essor des jeux sur le net, leur étude apporte
un éclairage important sur les potentialités scientifiques d'exploitation de ces
nouvelles pratiques pour traiter des problèmes de génération automatique par
prototypes. Elle s'inscrit dans la ligne des tests des psychologues et des neurolin-
guistes, avec comme outil le « jeu sérieux  » et le « contre jeu  » ; on y remarque
l'apport contemporain de la couleur, contrastant avec le noir et blanc de l'imprime-
rie historique. Rappelons que toutes ces captures d'écran sont habituelles dans nos
manuels d'initiation à l'informatique comme dans nos présentations PowerPoint.

Les éditeurs du recueil suggèrent (p. x-xr) de prendre les trois premiers
chapitres pour constituer une première partie axée sur l'examen des diction-
naires antérieurs à l'apparition des moyens électroniques. De ce point de vue,
les huit chapitres suivants formeraient une deuxième partie, axée à l'inverse sur
les développements contemporains impulsés par l'informatique linguistique. On
remarquera que cette lecture n'aboutit pas à une partition explicite au niveau de
la présentation dans la table des matières (p. v-vi). Loin d'être négligeable, cette
décision est au contraire particulièrement intéressante à resituer et à questionner,
une fois l'ouvrage parcouru, et ce n'est pas un de ses moindres mérites que de
nous y ramener, grâce à son « état de l'art » des recherches actuelles, aussi vaste
qu'exigeant. Examinons les choses d'un peu plus près.

Historiquement, c'est durant la décade 1980-1990 qu'on a souhaité, en
métalexicographie, identifier les premières démarcations entre méthodes et objets
et leurs points de contact, avec la prise en compte des dictionnaires papier et des
premiers modèles de traitements automatiques des entrées lexicales, en taille réelle,
à l'échelle des dictionnaires. Elles ont été formulées (notamment par Gaston Gross
au cours de La journée des dictionnaires 1995 organisée par Jean Pruvost alors au
Centre de recherche Texte/Histoire de l'Université de Cergy Pontoise) en termes

240 d'opposition entre « dictionnaires électronisés  » et « dictionnaires électroniques  ».
Vmgt ans plus tard, l'attitude prudente des éditeurs Nùria Gala et Michael Zock est
le symptôme d'une évolution. On réfléchit autrement, dans la mesure où l'avancée
des travaux a paradoxalement réduit les différences observées, ou tout au moins
brouillé certaines frontières.

Les dictionnaires sur support papier qui ont été numérisés s'intègrent à un
modèle général de dictionnaires dits « actifs  » ,une nouvelle attente des usagers
de dictionnaires modernes qui préfigure des convergences de construction et d'uti-
lisation avec leurs rivaux (historiques), les dictionnaires conçus et organisés dès
le départ sur des bases électroniques. C'est notamment le cas du TLF devenu
TLFi, dont Jean-Marie Pierrel présente les « usages nouveaux  » (chapitre 4.2.,
p. 135-139). De leur côté, les dictionnaires purement électroniques ont été amenés
à explorer de plus en plus les possibilités d'intégrer des caractérisations gramma-
ticales et surtout sémantiques de plus en plus fines. Pour y parvenir, paralléle-
ment àl'avènement des corpus numérisés fournisseurs de très gros volumes de
données «  en vrac  » ou « tout venant  », il est nécessaire d'optimiser leur utilisation.
Celle-ci passe par des efforts de définition du sens, étayés par des consultations
d'informations puisées dans des ressources « classiques  », largement fournies par
nos connaissances encyclopédiques. Les supports électroniques permettent des
jonctions d'extraction d'informations envases communicants, compte tenu du fait
que les classements alphabétiques traditionnels désormais périmés sont remplacés
par des réseaux.

Les dictionnaires électroniques « parlent de tout  », selon une formule
d'Henri Meschonnic, rappelée dans l'ouvrage. Donnons ici deux exemples. Tout
d'abord de façon tout à fait claire, c'est le cas, en génération automatique, du
« prototype » d'index de mots en réseaux sémantiques, WordFinder, déjà cité,
conçu pour aider les producteurs de phrases et de textes à « trouver le mot bloqué
sur le bout de la langue  », comme l'indique le titre du chapitre 10 rédigé par
Michael Zock et Didier Schwab. Il est construit sur la base d'informations fournies
par l'encyclopédie en ligne Wikipedia. Un autre cas intéressant est le dictionnaire
Les Verbes français (LUF). Réalisé en équipe au LADL et édité en version papier
en 1997 par Jean Dubois et Françoise Dubois-Charlier, il a été perfectionné et
mis en ligne par Paul Sabatier, Denis Le Pesant (rédacteurs du chapitre 5), et
Max Silberztein. Apparenté initialement aux lexiques-grammaires de Maurice
Gross, il pourrait sembler sans rapport avec l'exemple précédent. Ses a priori
méthodologiques de départ donnent la priorité non pas aux concepts et aux défini-
tions encyclopédiques mais à la syntaxe et à la morphologie dérivationnelle pour
construire les réseaux de correspondances entre les entrées verbales, systémati-
quement décrites dans des combinatoires syntaxiques désormais classiques, les
valences de Lucien Tesnière. Tout le travail sur la syntaxe et la morphologie est à
mettre plutôt en rapport avec l'acquis normé des dictionnaires et grammaires du
français contemporain. Mais à y regarder de plus près, l'introduction de propriétés
sémantiques systématiquement rapportées aux phrases passe par des classements

241 dits « ontologiques  » (voir particulièrement p. 168-183). En tant que tels, ces
classements assortis de « domaines  » du vocabulaire, ordinaire ou spécialisé —tout
à fait stratégiques pour organiser et distribuer les combinatoires lexicales et notam-
ment inclure par listages les formes figées et semi-figées —puisent précisément
directement dans les contenus encyclopédiques, rédigés à la main de la façon la
plus classique, ce qui met LUF en articulation explicite, à son tour, avec les diction-
naires précédant l'apparition des outils électroniques, dictionnaires de langue et
dictionnaires encyclopédiques confondus, reconnus comme socles incontournables
du calcul des sens de base. Cette remarque est déjà amorcée dans la synthèse intro-
ductive de Nùria Gala au chapitre 1  : « les sources de la lexicographie sont de fait
les mêmes que celles de l'encyclopédie » (note 2, p. 2), si on considère que les
dictionnaires électroniques qui sont maintenant nos dictionnaires contemporains
entrent dans le champ d'une lexicographie du vingt et unième siècle.

Revenons tout particulièrement sur l'intérêt des choix de présentation histo-
rique qui offrent, dans l'ouvrage, un cadrage d'ensemble aux questions soulevées
de lexicologie théorique et appliquée, avec ses deux chapitres généralistes 1 et 7.
Dans le premier, Nùria Gala se place dans une perspective d'histoire générale des
techniques qui précèdent nos usages contemporains, monolingues mais aussi large-
mentmultilingues, grâce aux traductions semi-automatiques. Complémentairement,
au chapitre 7, Benoît Sagot nous fait saisir, dans une perspective globale centrée
sur WordNet, toute la portée du développement des ressources lexicales propre-
mentdites, avec pour caractéristique générale l'apparition des systèmes statistiques
permettant de traiter les grands nombres et complétant les systèmes symboliques
historiquement majoritaires. Ce deuxième tour d'horizon met en relief un souci de
ne sacrifier aucun secteur de caractérisation si l'on veut disposer d'informations
« riches  » et de « bonne qualité  »dans les applications d'ingénieurs.

Sur la nature des échanges langagiers et sur les passages de l'épilinguistique
au métalinguistique, Ressources Lexicales est donc un livre qui se veut à la fois
historique et technique. Il soutient la thèse du rôle central du lexique, dans une
position claire  :rassembler les meilleurs spécialistes investis dans la confection des
dictionnaires contemporains, ou ressources, et donner la parole à des praticiens,
lexicographes, grammairiens et informaticiens experts en traitements automa-
tiques, au risque —assumé — de se faire taxer de «  technicisme  »par les philosophes
du langage. Nùria Gala et Michael Zock ont en leur faveur une conjoncture scien-
tifique dans laquelle on privilégie les expérimentations rendues nécessaires avec le
passage au tout numérique. D'où un vécu largement partagé dans la communauté
scientifique, ici le monde universitaire francophone. Cette position, le plus souvent
admise implicitement, fait consensus en épistémologie du langage autour des
travaux de Sylvain Auroux, déjà cité, publiant en 1994 La révolution technologique
de la grammatisation. Introduction à l'histoire des sciences du langage (Liège,
Mardaga). Il n'est pas inintéressant de relire (p. 165) la définition qu'il y proposait
pour tout type de grammaire et tout type de dictionnaire  : « un système d'outils
linguistiques [qui] prolonge et transforme l'expertise humaine plus qu'il ne la

242 remplace  ». Actuellement, deux décennies s'étant écoulées, Ressources Lexicales
prend acte d'un renversement de priorités dans l'outillage mental formé par le
couple grammaire/dictionnaire. Laplace centrale de la syntaxe que reflète indirec-
tement le terme de «  grammatisation  » s'efface devant les traitements lexicaux
et une priorité conférée par étapes aux dictionnaires, les grammaires étant, de
ce point de vue, désormais considérées comme « lexicalisées  ». Sous cet angle,
le mot, comme produit culturel très complexe des langues écrites, est au carre-
four de toutes les recherches et applications. Précédant et appuyant Auroux, les
travaux de Jack Goody sur ce qu'il est convenu d'appeler après lui, par une glose
explicative tout à fait heureuse des traductions françaises, la « raison graphique  »,
demeurent jusqu'à nos jours d'une grande force exploratoire concernant notre
actualité puisque le présent ouvrage nous aura apporté ici la précieuse démonstra-
tion qu'il n'y a pas de lexique électronique sans réexamen et perfectionnement des
formes les plus sophistiquées de l'inscription des langues dont la seule grammaire
est insuffisante à fournir toutes les clés.

Avec un accueil d'ores et déjà plus que chaleureux, Ressources Lexicales
sera une référence obligée des jeunes chercheurs, étudiants et professionnels, pour
lesquels il a été écrit.


Antoinette BALIBAR-MRABTI

Laboratoire MoDyco (UMR 7114)

abalibarmabti@yahoo. fr