Aller au contenu

Classiques Garnier

Comptes rendus

257
COMPTES RENDUS




APLIUT (Association des professeurs de langues des Instituts universitaires de technologie), Le dictionnaire dans tous ses états. Dictionnaires et enseignement des langues, Les Cahiers de l'APLIUT, XXIX/1, 2010, 189 p.— ISSN 0248-9430.
Il n'est pas courant que les enseignants de langues vivantes consacrent un ouvrage collectif à la question de la place du dictionnaire dans leur pratique, et c'est pour cette raison qu'il convient de saluer la publication de ce numéro des professeurs des IUT, issu du congrès de leur association, tenu en 2009. L'avis de ces intermédiaires de la lexicographie spécialisée est assez rarement entendu (cf. Lino (dis.) 2004), et il mérite que l'on s'y intéresse.
On sait que le dictionnaire est un produit hautement culturel et qu'il bénéficie en France d'une aura particulièrement flatteuse. Jean-Philippe Dupuy, dans «Du bricolage en général et des dictionnaires de langue en particulier », commence, en guise d'introduction, par démythifier le dictionnaire, trop souvent vu comme l'incarnation absolue de la norme. Il s'appuie sur l'histoire de la lexicographie française pour expliquer les très nombreux choix, dont certains sont nécessairement arbitraires, que le lexicographe est amené à faire. Chemin faisant, il fournit un cadre historique et culturel à l'ensemble du numéro.
La contribution de Thora Uan Male est également d'ordre culturel. Cette chercheuse est connue pour ses travaux sur un thème trop longtemps délaissé : le rôle de l'illustra- tion dans les dictionnaires. Dans l'article «La lettre volée :l'illustration ornementale des dictionnaires français », elle démontre l'importance culturelle de ce qu'elle appelle les « iconophores », ou « image[s] dont le premier trait pertinent est constitué par la lettre initiale du nom de son référent » (p. 24), qui reprennent toutes sortes de thématiques développées dans les pages du dictionnaire.
C'est avec l'article de Jean-Louis Trouillon, «Approche de la lexicographie en langue de spécialité », que l'on entre de plain pied dans le vif du sujet : la lexicographie spécialisée bilingue à but didactique. L'auteur, qui a plusieurs dictionnaires spécialisés bilingues et plurilingues à son actif, fournit un cadre très structuré et très pédagogique, qui peut servir non seulement à analyser les rèpertoires lexicographiques, mais aussi à en réaliser. De nombreuses décisions d'inclusion dépendent des besoins et des compétences du public visé (la transcription phonétique, par exemple, pourtant bien utile dans l'absolu, s'avère inexploitée par le public des étudiants non linguistes), ainsi que du type de domaine abordé. L'auteur donne comme exemple son dictionnaire de géopolitique et de relations internationales, où les noms propres, bien plus fluctuants que l'on pourrait croire, tout
Cah. Lexicol. 98, 2011-1, p. 257-270
258 comme les sigles, jouent un rôle important. Si l'on fait abstraction du peu de place accor- dée au support électronique, ce court article sera sans doute aussi utile aux pédagogues qui souhaitent se lancer dans la lexicographie didactique que le fameux Bergenholtz et Tarp (1995), car davantage en prise directe avec la situation dans les universités françaises.
L'approche d'Alain Cazade dans «Les dictionnaires électroniques :vers une économie méta-cognitique de la recherche avec nos outils de référence électronique »est non moins pédagogique, mais elle vise une meilleure connaissance et donc une exploita- tion plus efficace des outils informatiques existants, plutôt que la création de nouveaux. L'article commence par un historique bien utile du domaine et une comparaison de l'offre des dictionnaires électroniques dans les pays de langue française et anglaise. Il souligne l'importance des corpus dans la confection des nouveaux dictionnaires, mais se focalise sur les aspects ergonomiques : le rôle des illustrations, la disposition des éléments à l'écran (l'article est heureusement copieusement illustré),1'accès aux exemples sonores, l'interface avec les documents de l'utilisateur et avec les différentes ressources —dont les corpus — utilisées pour le dictionnaire. On apprécie beaucoup la présentation des différentes confi- gurations lexicales (dont le « mind mapping »), le tout étant examiné dans une perspective diachronique qui fait clairement apparaître le sens de l'évolution. Les éléments culturels ne sont pas passés sous silence, et il s'avère que, de ce point de vue, les dictionnaires électro- niques ont des progrès à faire. L'auteur constate en effet que, d'une manière générale, on aurait pu s'attendre à davantage d'innovation au niveau de l'offre dictionnairique, et qu'il dépend en partie des enseignants de pousser en ce sens.
Dans «Prototype d'un dictionnaire électronique de refonnulation pour apprenants avancés de français langue étrangère », Marie-Josée Hamel donne un très bref aperçu d'un projet de dictionnaire qui aide l'apprenant de français à trouver «le mot juste ». Elle vise ainsi la création d'un outil «explicatif et combinatoire »qui s'appuie sur la théorie Sens-Texte d'Igor Mel'cuk, mais qui privilégie la refonnulation du texte à produire en proposant des exemples de collocations et des explications. L'outil proposé est présenté comme un proto- type, et le nombre de champs lexicaux est volontairement très réduit, ce qui ne va pas sans poser des problèmes d'expérimentation inhérents à tout prototype d'outil lexicographique. En effet, les besoins des utilisateurs sont très variés, et l'offre nécessairement très réduite. Cette phase est néanmoins indispensable, car on sait que l'emploi d'un métalangage relati- vementélaboré peut avoir un effet dissuasif pour l'utilisateur novice et surtout non linguiste.
Deux auteurs se montrent très sceptiques quant à la place du dictionnaire bilingue dans l'enseignement des langues. Christian Surcouf répond par la négative à la question qu'il pose dans le titre de son article : «Le dictionnaire bilingue peut-il s'intégrer profitable- ment dans une stratégie d'apprentissage d'une langue étrangère? ». Malgré la bénédiction de Galisson (1991:25), Surcouf insiste tout au long de son article sur les contradictions inhérentes à la lexicographie bilingue, qui sont par ailleurs bien connues, et préconise, pour la classe de langue, l'usage exclusif du monolingue. Carlos Meléndez Quero, dans «Comment expliquer la signification des particules discursives d'une langue étrangère? », pointe l'insuffisance des dictionnaires bilingues espagnol-français pour éclairer l'étudiant sur la différence entre afortunadamente et felizmente. Ce n'est que dans les dictionnaires spécialisés espagnols (tels que les dictionnaires de synonymes) que l'on trouve la réponse, et l'étude des résultats de concordanciers pourrait se révéler plus efficace en termes pédagogiques.
En guise d'introduction à son article «Analyse assistée par ordinateur de discours spécialisés et élaboration de dictionnaires combinatoires », Jean-Marc Delagneau propose
259 un historique éclairant des relations entre terminologie et lexicographie spécialisée. Cette contribution situe bien les enjeux de l'ensemble du numéro. Comme Trouillon, l'auteur propose d'intégrer les dictionnaires à l'enseignement des langues de spécialité, mais plutôt sur support électronique. Il envisage en effet une pédagogie de la consultation de ressources dictionnairiques existantes et la création de bases terminologiques qui correspondent aux besoins spécifiques des enseignements. Dans tous les cas, il souligne la nécessité de prendre en compte l'aspect combinatoire, que ce soit sur le plan théorique (Igor Mel'cuk est de nouveau convoqué) ou pratique, les dictionnaires combinatoires des Canadiens servant d'exemples types.
Les fonctions de consultation que remplissaient autrefois les dictionnaires, souvent à l'exclusion de toute autre ressource, sont de plus en plus prises en charge de nos jours par d'autres outils électroniques, que ce soit les corpus, les dictionnaires ou autres bases de données en ligne, ou tout simplement les moteurs de recherche. Le dictionnaire se trouve désormais concurrencé par ces nouveaux médias et la question de leur place est débattue dans plusieurs articles. Elle constitue néanmoins la problématique essentielle de celui de Claire Larsonneur, «Pédagogie et recherche lexicale en ligne :par delà Google ». Cette enseignante cherche principalement à former les étudiants à la bonne utilisation des moteurs de recherche, et propose un travail intéressant sur les «lexiques émergents », qui posent en général problème, surtout dans le domaine du bilingue. Comme Delagneau, elle préconise la confection de bases de terminologie par les étudiants eux-mêmes. Alex Bolton analyse pour sa part l'apport de l'enseignement sur corpus dans «Consultation de corpus et styles d'appren- tissage », mais n'aborde pas directement la question des dictionnaires ou de leurs fonctions.
Dans «Des dictionnaires électroniques spécialisés pour l'anglais informatique », Danielle Joulia fournit de son côté une liste de ressources terminologiques pour l'informa- tique, ainsi qu'une méthode de vérification de la pertinence et de la validité des résultats ainsi trouvés. Enfin, Csilla Ducroq, dans un compte rendu d'atelier, «L'utilisation des dictionnaires et des collections de documents audio libres en ligne pour créer des exercices en langue sur la plate-forme d'enseignement numérique WIMS », explique comment cette plateforme d'enseignement WIMS (Web Interactive Multipurpose Server) peut servir de tremplin pour créer des exercices à partir de toutes sortes de ressources, dont les diction- naires en ligne.
Malgré le caractère obligatoirement dispersé de la thématique, ce volume apporte une contribution certaine à la lexicographie didactique, surtout spécialisée, trop longtemps passée sous silence.

John HUMBLEY
LDI (UMR 7187), Université Paris 13 Nord
et Université Paris 7Denis-Diderot
huxnbley@eila.univ-paris-diderot.fr

Références
BERGENHOLTZ Henning et TARP Sven (dir.), Manual of Specialised Lexicography: The preparation of specialised dictionaries, Amsterdam, Philadelphia, Benjamins, 1995.
GALISSON Robert, De la langue à la culture par les mots, Paris, Clé International, 1991.
LINO Maria Teresa (dir.), Vocabulaires de spécialité et lexicographie d'apprentissage en langues-
cultures étrangères et maternelles, éla, Études de linguistique appliquée, n° 135, 2004/3„
Paris, Didier Érudition/Klincksieck, 2004, p. 261-380.
260 CONENNA Mirella, La salle de cours, Berne, Peter Lang, 2010, 195 p. (coll. «Études contrastives », vol. 11) — ISBN 978-3-03-911786-4.
Avec un souci didactique affirmé de l'enseignement de la grammaire, Mirella Conenna, professeur de langue française à l'Université de Bari «Aldo Moro », tente, dans ce volume, de répondre à la question «Comment faire un cours de grammaire ? ». L'auteur y a rassemblé les transcriptions d'une série d'entretiens avec d'éminents spécialistes en linguistique française, provenant d'expériences et d'horizons théoriques différents, invités par son université à donner un cycle de leçons.
Chaque interview constitue un chapitre, introduit par une présentation de l'invité dont on rappelle les domaines de spécialités, l'expérience académique et la collaboration avec des revues. Mirella Conenna a posé les cinq mêmes questions à chacun de ses inter- viewés. Si les trois premières portent sur leur intervention à Bari (la thématique abordée, les raisons sous-jacentes au choix de celle-ci, un point particulier qui y a été traité), la quatrième est une question plus personnelle, concernant ses apports à la linguistique. La dernière question l'invite à préciser quelles sont, selon lui, les orientations les plus fécondes en grammaire française.
Premier interviewé, Pierre Cadiot, sémanticien, montre, à partir de ses deux leçons, l'une sur la sémantique prépositionnelle de chez, l'autre sur l'analyse de trois verbes de mouvement :monter, partir, sortir, la nécessité d'analyser le plus grand nombre possible d'emplois d'un mot.
Jean-Claude Chevalier, historien de la langue française, trace, dans une première leçon, un panorama de la discipline au xx° siècle, depuis l'opposition entre grammairiens et philologues jusqu'aux combats menés par les structuralistes pour l'affirmation de la linguistique. Dans la seconde leçon, il développe l'inadéquation du purisme face à l'écla- tement des variétés du français.
Benoît de Cornulier, par le biais des phrases du type dit-il, analyse les difficultés, techniques et conceptuelles, liées à la description des incises.
Gaston Gross présente la notion de classe d'objets et insiste sur l'utilité qu'elle revêt pour surmonter le problème de la polysémie dans l'optique lexicographique. Cette approche est également abordée du point de vue de l'élaboration de dictionnaires électroniques dans une optique de traitement automatique des langues.
Deux thématiques très différentes font l'objet des leçons de Georges Kleiber. La première concerne l'unité référentielle du pronom personnel, la seconde porte sur le proverbe et donne à l'auteur l'occasion d'exposer les fondements théoriques qu'il a donnés à la parémiologie. Dans l'optique de la polylexicalité, les proverbes sont rapprochés des mots simples. Leur double statut d'unités «figées » et de phrases génériques les consacre comme une «vérité indiscutable ».
Après avoir évoqué les conditions de la conception des grammaires au xvI° siècle, Jean-René Klein, lexicologue et lexicographe, montre dans quelle mesure les thématiques de la grammaire et du lexique sont imbriquées.
L'expérience du lexique-grammaire et du LADL est un point commun entre deux autres interviewés, Jacques Labelle et Éric Laporte. Le premier, spécialiste du français du Québec, intervient sur les formes libres et figées de cette variété linguistique. Il explique comment il a introduit la réflexion sur la variation au sein de l'école duLexique-Grammaire. Quant à É. Laporte, mathématicien de formation converti à la linguistique, il expose le
261 travail mené sur le lexique-grammaire des adjectifs ainsi que le programme de construction et de mise à jour des dictionnaires électroniques, ressources linguistiques fondamentales pour le traitement automatique des langues.
Salah Mejri traite de la centralité de la problématique de l'exemple dans la traduc- tion des textes linguistiques et dans la grammaire. Il aborde aussi le problème de la termi- nologie, discipline pour laquelle il prône une intégration à la linguistique.
Martin Riegel caractérise les axes de la réflexion à la base de la Grammaire métho- dique du français, écrite en collaboration avec Jean-Christophe Pellat et René Rioul. Sa deuxième leçon est centrée sur la grammaire des constructions attributives.
Le dernier conférencier invité, Marc Wihnet, a présenté deux sujets : le système des articles en français et l'accord du participe passé. La seconde question a été accueillie avec enthousiasme par les étudiants.
Dans l'ensemble des interviews, on remarque, au moment de la quatrième question, une certaine hésitation, due sans doute à la modestie des invités, contrebalancée par un fort intérêt pour les travaux des autres au moment de la dernière question sur les orientations les plus fécondes en matière de grammaire française.
La formule «décontractée» de l'entretien s'avère être un choix heureux, qui permet aux interviewés de se laisser aller à des anecdotes personnelles liées à la grammaire, ce monstre sacré et inquiétant qui est un «passage obligé vers le savoir-faire ». Pour ceux qui voudraient approfondir quelques-unes des questions traitées, une annexe donne les références de tous les travaux des linguistes interviewés.
Le lecteur s'apercevra de la présence constante de Maurice Gross tout au long de ces dialogues qui ne se limitent pas à une didactique de la grammaire, mais brossent, plus largement, un tableau des innovations théoriques qui, partant de la grammaire, ont nourri la linguistique française du dernier demi-siècle.

Rosa CETRO
Université de Brescia
et Université Paris-Est Marne-la-Vallée
rosa.cetro@gmall.com


GRO55 Gaston, avec la collaboration de Ramona PAUNA et Freiderikos VALETOPOULO5, Sémantique de la cause, Leuven-Paris, Peeters, 2009, 366 p. (coll. «Linguistique »publiée par la Société de linguistique de Paris ; XCVI) — ISBN 978-2-7584-0105-6.
Cet ouvrage propose une description systématique des constructions causales du français. La démarche adoptée s'appuie sur des critères sémantico-syntaxiques; elle est appliquée tant à des exemples comme La conférence n'aura pas lieu parce qu'il n ÿ a pas de salle — où la relation de cause à effet est exprimée par le segment parce que —qu'à des agencements comme La conférence n'aura pas lieu. Il n ÿ a pas de salle, où — en l'absence de lien formel —une inférence établissant le lien causal s'établit sur la base des « connais- sances du monde ».
262 L'introduction (p. 1-12) précise les fondements d'une approche linguistique de la cause. La principale distinction s'opère entre les prédicats du premier ordre (p. ex. Paul est responsable de ce désastre) et les prédicats du second ordre (p. ex. Le gel de cette nuit a provoqué de graves dégâts). C'est ce dernier type de prédicats causatifs qui constitue l'objet du livre; l'analyse s'appuie sur la notion de schéma argumental —p. ex. provoquer (gel, dégâts) pour Le gel a provoqué des dégâts — et l'application d'un ensemble de critères formels à un vaste corpus (dix années du journal Le Monde, ainsi que la base Frantext) permet de déterminer la nature des arguments dans les différentes constructions étudiées. Ce travail conduit à élaborer une classification qui repose sur la nature de l'opérande.
Le chapitre 1 (p. 13-40) met au point un ensemble de paramètres permettant d'ana- lyser l'expression de la cause dans les langues naturelles. Partant du principe selon lequel toute structure linguistique allie de façon étroite les propriétés syntaxiques et sémantiques, qui ne constituent pas deux niveaux d'analyse différents, les agencements étudiés sont considérés sous un angle précis, entant que prédicats du second ordre. Les outils théoriques mobilisés conduisent à distinguer plusieurs types de constructions causales. D'une part, la nature de l'opérande permet de mettre au jour l'existence des «causes événementielles » (Les guerres provoquent des drames épouvantables), des «causes du faire »(D'impérieuses raisons de sécurité ont motivé ces mesures) et des «causes du dire » (Yous prenez toujours la chambre ?Parce que j'ai des demandes) ;d'autre part, la relation de causalité n'étant pas codée de façon uniforme, la description intègre —outre les cas de «codage normal » (La grève de ce matin a occasionné plusieurs bouchons) —les cas de surcodage (Cette situation a donné naissance à une gestion chaotique) et les cas de sous-codage (Quand on chauffe un solide, son volume augmente).
Les chapitres 2 à 8 constituent une description sémantico-syntaxique très fine des différentes classes d'agencements exprimant la relation de causalité. Ainsi, le chapitre 2, «Causes événementielles » (p. 41-90), est consacré aux constructions opérant sur des événements; une présentation détaillée de la notion d'événement est suivie de l'analyse de deux structures informatives différentes : causes à effets (L'orage d'hier a causé une inondation inhabituelle) et causes explicatives (On doit cette situation à l'imprévoyance des autorités). Le chapitre 3, «Causes et métaphores » (p. 91-119), présente l'analyse des constructions caractérisées par un surcodage, où une valeur supplémentaire de nature métaphorique s'ajoute à la notion de cause (Cette guerre a conduit le pays au désastre). Le chapitre 4, «Causes aspectuelles » (p. 121-157), a pour objet les causatifs inchoatifs (Ce discours a déclenché la colère), les causatifs progressifs (Le système maintient la pression dans la cuve) et les causatifs terminatifs (Les délégations respectives ont suspendu les négociations). Le chapitre 5, «Causes du faire » (p. 159-214), présente la définition de la notion d'action et décrit les causes qui opèrent sur une action humaine (Le service d'ordre nous a empêchés d'entrer). Le chapitre 6, «Causes et états » (p. 215-251), définit la notion d'état et met en évidence la nécessité de recourir à une distinction tripartite entre propriétés, états événementiels et états situationnels; c'est dans cette perspective que sont analysées des constructions causales comme L'expérience a changé sa manière d'être, On a remis la voiture en état de marche, Une gestion désastreuse a mis cette entreprise en faillite. Le chapitre 7, «Causes et inférences » (p. 253-304), présente l'analyse des constructions caractérisées par unsous-codage; ainsi, par exemple, quand est interprété comme temporel dans Quand j'ai commencé mon exposé, la porte aclaqué — et à la fois comme tempo- rel et comme causal dans Quand j'ai ouvert la fenêtre, la porte a claqué, sur la base de l'expérience que nous avons de l'effet des courants d'air. Enfin, le chapitre 8, «Causes et
263 énonciation» (p. 305-334), aborde les causes conjecturées (Ce supermarché ne vend plus de fruits de mer. Je suppose qu'il n ÿ a pas suffisamment de clients pour ce produit), tradui- sant la recherche d'une explication causale, puis les constructions qui intègrent des faits d'énonciation —comme p. ex. Est-ce que Marie est malade ?Parce qu'elle a trop mangé, où la particularité de l'emploi de parce que a pour corollaire l'adéquation de la paraphrase Je (te) pose cette question parce que Marie a trop mangé ; on trouve, dans cette partie, une analyse détaillée des agencements organisés autour de puisque et de car.
La conclusion (p. 335-340) récapitule les résultats des analyses présentées, en ce qui concerne notamment les propriétés des prédicats causatifs du second ordre, ainsi que la double structuration des constructions causales (asserter ou expliquer). La bibliographie (p. 343-352) est suivie de l'index des auteurs, de l'index des connecteurs et de l'index des concepts.
Cet ouvrage se caractérise par une grande rigueur sur le plan des analyses et des définitions des concepts utilisés ;illustré par de nombreux exemples, rédigé dans un style clair et accessible, sans excès de vocabulaire technique, il intéressera bien sûr les linguistes, mais aussi le «grand public cultivé »désireux d'en savoir plus sur la nature des construc- tions aptes à exprimer la cause en français contemporain.

Pierre Patrick HAILLET
LDI (iJMR 7187), Université de Cergy-Pontoise
hailletpatrick@yahoo.fr



MURANO, Michela, Le traitement des Séquences Figées dans les dictionnaires bilingues frappais-italien, italien frappais, Monza, Milano, Polimetrica, 2010, 369 p. (coll. «Lexicography worldwide ») — ISBN 978-88-7699-185-1.
La lexicographie bilingue est souvent traitée en parent pauvre par rapport à sa soeur unilingue. Il est donc encourageant de pouvoir saluer la publication d'une étude significa- tive sur les problèmes spécifiques associés à l'inclusion des informations phraséologiques dans ce type de répertoire.
Le présent ouvrage, tiré pour l'essentiel d'une thèse remarquée, est une réflexion générale sur le traitement des séquences figées en lexicographie bilingue, et s'appuie sur une étude à la fois minutieuse et exhaustive des quatre grands dictionnaires français-italien/ italien-français (Boch 2007, DIF 2003, issu du Hachette-Oxford, Garzanti 2006 et Larousse 2006). Si la démarche de l'auteure est toujours limpide et explicite, il n'en va pas de même pour l'objet de son étude. En effet, le corpus textuel sur lequel ces dictionnaires se fondent est peu précisé, surtout pour la partie italienne, ce qui représente un inconvénient pour l'analyse, dans la mesure où les séquences figées sont définies, du moins en partie, selon un critère statistique. Il faudra attendre les dictionnaires de la génération à venir, appuyés sur des corpus conséquents, et présentés sous forme électronique, pour revoir cette question à fond. Pour l'heure, toutefois, le lecteur est heureux de disposer d'un bilan de ce qui repré- sente sans doute le dernier avatar du dictionnaire bilingue papier.
Appelée parfois phraséographie (l'auteure fait le point sur cette notion bien utile pour son objet d'étude), le traitement lexicographique de la phraséologie s'appuie nécessai-
264 renient sur l'analyse linguistique du phénomène de figement. L'introduction et le premier chapitre de l'ouvrage sont donc consacrés à un panorama des études menées sur la question, surtout en linguistique française, de Bailly à Mel'cuk, en passant par Maurice et Gaston Gross et Salah Mejri, puis aux applications réalisées d'abord en lexicographie monolingue (toujours la référence!) puis bilingue. La définition de la séquence figée s'appuie donc sur des critères bien connus, mais réunis ici dans un ensemble cohérent : la polylexicalité (on a toujours affaire à deux lexèmes au moins), le figement, qui se manifeste à plusieurs niveaux et dont l'importance peut être déterminée grâce à un certain nombre de tests, la non-compositionnalité (le sens de l'ensemble est différent de celui de la somme de ses éléments), et l'écart par rapport à la norme (lexicale, morphologique, syntaxique...). Sur le plan lexicographique, trois grandes questions se posent : où placer les éléments complexes dans le dictionnaire, comment les distinguer des autres suites et quelles infor- mations complémentaires fournir?
Le chapitre deux est consacré à la construction d'une grille d'analyse des diction- naires bilingues. L'auteure adopte deux scénarios de consultation, l'un de la langue étran- gère vers la langue maternelle, l'autre en sens inverse, qu'elle divise en neuf étapes. Le souci pédagogique n'est jamais absent de cette analyse. Michela Murano a bien intégré l'importance de la notion de directionnalité pour le dictionnaire bilingue, car on n'a pas les mêmes besoins pour le «thème» que pour la «version» (on peut toutefois s'interroger sur la pertinence de ces appellations, compte tenu de l'évolution de la didactique de la traduction). Elle voit dans le traitement de la polylexicalité une expression privilégiée de la lexiculture de Robert Galisson, qui se manifeste avant tout dans la combinatoire. Après avoir développé les deux stratégies de recherche d'information, l'auteure envisage toutes les possibilités de présentation déjà suggérées par la métalexicographie, et dont elle donne pour finir une grille d'analyse présentée sous la forme d'un schéma.
Le troisième chapitre analyse quatre dictionnaires du corpus à la lumière de la grille de lecture élaborée dans le chapitre précédent, sans toutefois en évoquer les différentes étapes. Le rôle de la présentation graphique et des paratextes (introduction, guide de consul- tation) est bien mis en lumière, y compris les éléments d'autopromotion, toujours présents dans la mesure où le dictionnaire est aussi un produit commercial. On note au passage la multiplicité d'appellations utilisées par les dictionnaires pour désigner les séquences figées qu'ils entendent traiter, témoignage quelque peu involontaire d'un certain embarras à l'égard de la démarche descriptive adoptée. La question de l'accès aux informations concernant les séquences figées est évidemment centrale dans ce chapitre, ainsi que les marques d'usage et autres explications, sans oublier les réemplois :exemples, illustrations et autres instances de «mise en discours ».
Avec le quatrième chapitre, nous quittons le dictionnaire papier pour nous intéresser au support CD-ROM et aux nouvelles possibilités de présentation qu'offre ce dernier. La réalité ainsi décrite est à vrai dire bien décevante :les quatre dictionnaires ne se servent guère des possibilités offertes par le nouveau média, et l'auteure constate avec déception que les versions électroniques comportent dans certains cas moins d'informations que leur ancêtre papier. Les seuls avantages ont trait à la présentation (typographie, couleurs, etc.) et à l'accessibilité : si l'utilisateur manie bien le langage des requêtes, il peut trouver ce qu'il recherche, à condition toutefois que le renseignement soit présent.
Cette étude ouvre indiscutablement des pistes de réflexion que d'autres pourront poursuivre bien utilement. La notion d'institutionnalisation, associée à celle de fréquence (mais dans quel corpus?), est évoquée pour justifier l'inclusion des séquences figées dans
265 les dictionnaires. Or, il semble que cette notion provienne de la tradition lexicologique anglo-saxonne, telle qu'elle est employée par Laurie Bauer (1983:33). L'idée est intéres- sante, car elle ouvre une perspective sociolinguistique dans le processus de la propagation de la néologie et mérite d'être approfondie. D'autres source auraient pu enrichir la réflexion, en particulier les grilles de lecture de Wiegand (1987 par exemple), qui est surtout cité de seconde main ou en collaboration avec le romaniste Haussmann. Les travaux de Henning Bergenholtz et de ses collègues ne sont pas du tout évoqués, ce qui est dommage dans la mesure où ils resituent la problématique de la lexicographie en la requalifiant d'accesso- logie (voir à ce sujet Leroyer 2008 et Bergenholtz, Nielsen, Tarp (dir.) 2009'). Comme le montre l'auteure de l'étude, le point central est de savoir comment l'utilisateur accède à l'information. Il ne faudrait cependant pas conclure de ces remarques que l'étude de Michela Murano ne s'appuie pas sur une connaissance approfondie de la lexicologie et la métalexicologie française, telle qu'elle est pratiquée en France et à l'étranger. Bien au contraire, on peut recommander ce livre à tous ceux qui souhaitent s'initier aux questions de la lexicographie bilingue. La préface de Jean Pruvost le situe bien dans le paysage lexicographique européen, où il occupe une place de choix.
Le livre comporte par ailleurs une annexe importante, divisée en trois parties : la liste des cinquante séquences figées dans chaque langue étudiées pour chacun des quatre dictionnaires, les cent fiches des phraséologismes analysés, elles-mêmes précédées d'ins- tructions. Ces «fiches »permettent en fait une vue synoptique du troisième chapitre. À ce sujet, on apprécie les schémas qui permettent de visualiser les concepts présentés et les liens qu'ils entretiennent les uns avec les autres.
Cet ouvrage représente une contribution significative aux études de métalexicogra- phiebilingue et peut être recommandé à ceux qui souhaitent mieux comprendre les enjeux lexicographiques de la phraséologie.
John HUMBLEY
LDI (UMR 7187), Université Paris 13 Nord
et Université Paris 7Denis-Diderot
hurnbley@eila.univ-paris-diderot.fr

Références
BAUER Laarie, English word formation, Cambridge, Cambridge University Press, 1983. LEROYER Patrick, «Les renvois aux sources comme ressources lexicographiques fonctionnelles » , Cahiers de Lexicologie, 93, 2008, p. 27-54.
BERGENHOLTZ Hennig, NIELSEN Sandro et TARP Sven (dir.), Lexicography at a Crossroads, Beme, New York, Peter Lang, 2009.
WIEGAND Herbert Ernst, «Die gegenw~rtige Status der Lexikographie und ihr Verh~ltnis zu anderen Disziplinen » , in Franz Josef HAUSMANN et al., W~rterbücher, Dictionaries, Dictionnaires, I, Berlin, Walter de Gruyter, 1989, p. 246-280.


1 Bergenholtz Henning, Nielsen Sandro, Tarp Sven (dir.), Lexicography at a Crossroads.

Dictionaries and Encyclopedias Today, Lexicographical Tools for Tomorrow, Beme, Peter Lang
(coll. « Linguistic Insights » , 90), 2009. Voir le compte rendu de John Humbley, Cahiers de
lexicologie, 95 (2009), p. 233-239.
266 5CHRYVER Gilles-Maurice de (dir.), A Way with Words : Recent Advances in Larical T7teory and Analysis A Festschri, ft for Patrick Hanks, Kampala, Menha Publisher, 384 p. (coll. «Menha Linguistics Sertes », 2010) — ISBN 978-99-7010-101-6.
L'ouvrage est un hommage à Patrick Hanks, linguiste et lexicographe. Il rassemble des articles signés de chercheurs reconnus par la communauté internationale dans le domaine du lexique (lexicologues et lexicographes)2. Le volume s'ouvre sur une introduc- tion de G.-M. Schryver, éditeur scientifique du volume. En quelques pages, il rappelle les apports majeurs des travaux de Patrick Hanks. À la suite de John Sinclair, P. Hanks a opté pour une lexicographie de corpus, affirmant que le sens des mots existe, mais en contexte seulement, qu'il consiste en un groupe d'éléments sémantique, et que les dictionnaires ne décrivent que des potentiels sémantiques et non pas des sens. Les publications les plus célèbres de Hanks sont celles qui tournent autour de l'idée que des mesures statistiques sur les collocations sont des outils fondamentaux pour décrire le sens des mots. L'article se poursuit ensuite par un historique de la carrière de P. Hanks, qui l'a amené à la théorie des normes et exploitations (Theory of Norms and Exploitations). Il établit ainsi que deux systèmes de règles régissent les comportements linguistiques :l'un gouverne la phraséolo- gie normale et les mots en usage, l'autre permet aux locuteurs l'utilisation de la phraséo- logie normale dans des utilisations plus créatives. Pour clore l'article, Shryver revient sur les publications de Hanks.
L'ouvrage se divise en trois grandes parties : il présente d'abord les aspects théoriques de la lexicographie, puis les aspects computationnels de la discipline, et consacre la dernière partie à l'analyse lexicale et à la rédaction de dictionnaires.
Première partie :Aspects théoriques
John Sinclair est généralement reconnu comme le père fondateur de la lexicographie moderne qui s'appuie sur une théorie de la linguistique de corpus. L'article «Defining the definiendum », qui ouvre le volume, est resté inachevé. La version publiée est datée d'à peine deux semaines avant sa mort et n'a pas été modifiée. Cet article essaie de montrer ce que l'on devrait entendre par «définir ». Pour J. Sinclair, définir, c'est spécifier les limites, les frontières d'une unité lexicale plus que décrire son sens. Aussi, l'auteur, en s'appuyant sur la linguistique de corpus, donne toute leur place aux expressions idiomatiques, et consi- dère qu'un defzniendum doit être un item lexical (et non un mot), c'est-à-dire un segment de texte à laquelle on attribue un sens. Les études de corpus montrent qu'il est absurde de considérer que le sens généralement considéré par les dictionnaires comme le sens princi- pal (tore sense) d'un item lexical est le sens le plus fréquent. En effet, les locuteurs (sans doute sous l'influence) des dictionnaires) considèrent le sens concrets des items lexicaux comme le sens principal, ce qui n'est pas le cas si on observe l'usage. Ensuite, Sinclair montre comment on peut décrire le sens d'items lexicaux en utilisant des grammaires locales énumérant les constructions dans lesquelles les mots apparaissent et prennent un sens différent du sens habituellement considéré comme principal.
Yorick Wilks republie une communication des années 1970 sur la préférence séman- tique : « Very Large Lexical Entries and the Boundaries Between Linguistic and Knowledge Structure », dans la lignée des travaux de Minsky (1975).

2 La distinction entre lexicologie et lexicographie est rarement observée par les linguistes de langue anglaise, et ces deux versants sont convoqués au même titre dans ces Mélanges.
267 Le problème posé est celui de la quantité d'informations que les entrées lexicales d'un système de compréhension automatique du langage doivent contenir, et surtout, celui de la gestion des emplois dont le sens va au-delà de ce qui est habituellement décrit dans un lexique. Wilks montre, en utilisant l'exemple de la phrase «Ma voiture boit beaucoup d'essence », comment la violation d'une contrainte sémantique (ici le fait que le sujet du verbe boire n'est pas un animé, comme on l'attend en général) peut être gérée par un système automatique en utilisant un «pseudo-texte» (PT).
L'article de James Pustejovshy et Anna Rumshisky, « Mechanisms of Sense Extension in Verbs », étudie les mécanismes qui permettent de relier les différents sens d'un prédicat. Quel que soit le degré de métaphorisation des différents sens, la manière dont ils sont reliés entre eux est un objet d'étude pertinent. La coercition de type3, telle qu'elle est décrite dans la théorie du lexique génératif, n'est pas le seul moyen de décrire les extensions de sens des prédicats. Les différents sens proviennent de divers processus opérant sur les prédicats, tels que la généralisation du type des arguments, le changement dans la proéminence relative des arguments ou l'abstraction du sens noyau du prédicat lui même. Tous ces phénomènes sont décrits au travers d'exemples qui permettent de voir clairement tous les sens intermédiaires entre le plus concret et le plus abstrait.
Igor Mel'cuk, dans «The Governrnent Patterns in the Explanatory Combinatorial Dictionary », revient sur certains aspects de la théorie Sens-Texte, et sur des notions fonda- mentales liées aux dictionnaires explicatifs et combinatoires qu'il a développés dans les dernières décennies. Il explique plus particulièrement les notions de gouvernement et de patron de gouvernement (Governrnent Pattern). Une unité ul gouverne une unité u2
— soit si la forme morphologique de u2 dépend de propriétés intrinsèques de ul (et
non de sa forme) ;
— soit si ul sélectionne un lexème u2 (et non un gramrnème);
— soit si ul sélectionne une unité lexicale u2 d'un type grammatical particulier.

Un patron de gouvernement contient alors quatre éléments : la diathèse de l'unité lexicale ; des éléments de structure syntaxique de surface correspondant aux actants de structure profonde; des moyens linguistiques d'expression de surface des actants syntaxiques profonds; et enfin des contraintes sur l'expression des actants syntaxiques de surface.
David Wiggins, dans son article «The Paradox of Analysis and the Paradox of Synonymy », revient sur un problème connu : si on peut remplacer sans conséquence un mot (analysandum) par une périphrase (analysant), alors l'analyse est triviale. S'il y a une différence, alors l'analyse est fausse. Concernant la synonymie, le problème est proche. Wiggins revient alors sur le problème posé par Frege à propos de l'étoile du matin qui est aussi l'étoile du soir, et conclut après avoir expliqué ses relations avec P. Hanks : on n'apprend pas à quel concept correspond un mot, mais on cherche un mot pour exprimer un concept. Le paradoxe de la synonymie montre que chaque mot qui entre dans la langue crée sa propre niche.
Deuxième Partie :Calculer les relations lexicales
L'article de Kenneth W. Church, «More is More », pose le problème de la «qualité» des corpus. Doivent-ils être calibrés? Doit-on les «nettoyer »?Aujourd'hui, malgré les protestations de certains, comme Adam Kilgan iff, le choix a été fait : on privilégie la
3 Opération qui consiste à forcer et donc à modifier le type sémantique de l'argument d'un prédicat dans certains cas de polysémie.
268 quantité et non la qualité. Les corpus doivent être volumineux, mais pas forcément échan- tillonnés ou nettoyés, et pour Church, ce choix est raisonnable : «plus, c'est plus, malgré les critiques de la Google-ologie4 ».
Gregory Grefenstette s'intéresse, dans l'article « Estimating the Number of Concepts », aux expressions composées de plusieurs mots. En effet, si les outils de traite- ment automatique des langues peuvent gérer les mots simples, ils ne sont souvent pas au point concernant la phraséologie, les mots composés, les expressions figées. Les concepts exprimés par plusieurs mots sont en nombre inconnu. Après avoir décrit la méthode avec laquelle il analyse les pages web, et en montrant les réserves à faire la concernant, G. Grefenstette estime le nombre de concepts exprimés par des expressions de deux mots à environ 233 millions.
L'article de David et Louise Guthrie, « Identifying Adjectives that Predict Noua Classes », montre l'utilité des adjectifs dans une tâche de prédiction de la catégorie séman- tique du nom qu'ils modifient. Les auteurs utilisent un ensemble de 29 classes de noms, et augmentent les corpus existants grâce à une technique non supervisée d'annotation des syntagmes nominaux. Il est clairement démontré que l'utilisation de très gros corpus est fondamentale ici, et il apparaît que l'étude des adjectifs entourant le nom permet de les désambiguïser efficacement.
Alexander Geyken étudie, dans « Statistical Variation of German Support Verb Construction in Very Large Corpora », des constructions à verbe support en allemand, dites «constructions verbes-nominalisation » (désormais NVG). Il essaie, en étudiant de très grands corpus, de savoir si (1) le nombre de NVG augmente avec la taille des corpus étudiés (autrement dit, si la classe est potentiellement infinie) et (2) ce que donne la comparaison entre les NVG trouvées en corpus et celles qu'on trouve dans les grands dictionnaires «papier ». L'étude montre qu'un corpus doit compter au moins 100 millions de mots pour permettre une réelle observation et constituer la base d'une bonne étude lexicographique
en dessous, on n'y trouve pas de façon significative les NVG recensées dans les diction- naires. L'étude montre aussi qu'une étude de corpus est indispensable pour compléter les entrées des dictionnaires imprimés.
L'article de Karel Pala et Pavel Rychlÿ, «A Case Study in Word Sketches — Czech Verb vidét "see" », étudie le schéma (sketch) du verbe tchèque voir (vidét) en corpus. Les schémas ont pour but d'aider les lexicographes à relever en corpus les cooccurrences des unités lexicales afin de décider lesquelles inclure dans un dictionnaire. À partir d'un travail réalisé avec le Sketch-Engine de Kilgarriff~ et du résultat obtenu pour ce verbe, soit un document d'une page, contenant le schéma du verbe étudié, Pala et Rychly tirent les enseignements des erreurs contenues dans ce schéma. Le premier type d'erreurs provient du mauvais étiquetage du corpus, le second de règles de grammaires manquantes ou incor- rectes (parfois, de la combinaison des deux facteurs). Il semble donc nécessaire d'améliorer les performances des étiqueteurs en augmentant la taille des données d'entraînement et en combinant des méthodes statistiques et symboliques.
Dans leur article «The Lexical Population of Semantic Types in Hanks's PDEV », Silvie Cinkovà, Martin Holub et Lenka Smejkalovà rapportent une analyse du Pattern
4 google-ology dans le texte.
5 A. Kilgarriff est l'un des plus grands noms de la lexicographie internationale. Il est reconnu pour ses travaux à l'intersection de la linguistique de corpus, la lexicographie et la linguistique informatique.
269 Dictionary of English Verbs (PDEV), réalisé —entre autres —par Patrick Hanks. Le PDEV a pour but de faire correspondre des sens à des schémas d'usage des verbes. L'idée du travail décrit ici est d'assigner des types sémantiques aux noms qui cooccurrent avec les verbes. Le résultat permet d'associer des verbes au type sémantique le plus probable. Il permet aussi de repérer les désaccords entre annotateurs, et à terme, il permettra d'augmenter le PDEV.
Elisabetta Jezek et Francesca Frontini, dans l'article « From Pattern Dictionary to Patternbank », décrivent le lien entre les types sémantiques (TS) associés aux arguments des verbes et leurs définitions (LS, pour lexical sets). En analysant les discordances entre les TS et les LS, les auteurs proposent d'étendre la méthode élaborée par P. Hanks, la Corpus PatternAnalysis (CPA), et l'appliquent à la construction d'une «patternbank» pour l'ita- lien, c'est-à-dire une base de données dans laquelle on trouve les schémas des différents verbes (informations sémantiques et syntaxiques sur les arguments des verbes).
Troisième partie :Analyse lexicale et rédaction de dictionnaires
Dans « Words that Spring to Mind : Idiom, Allusion, and Convention », Rosamund Moore présente une étude en corpus de l'expression anglaise Spring to mind (venir à l'esprit). L'auteur décrit le traitement lexicographique de cette expression, en classe les différentes utilisations et en commente certains usages. Elle conclut par les généralités suivantes, en accord avec les théories de P. Hanks :les mots et les expressions n'ont pas seulement le sens que décrivent les dictionnaires ;même leurs occurrences a priori déviantes doivent être prises en compte car elles font partie des utilisations des unités lexicales et permettent la description complète de schémas d'usage.
Sue Atkins, dans l'article «The DANTE Database : Its Contribution to English Lexical Research, and in Particular to Complementing the FrameNet Data », décrit les deux bases lexicales, DANTE (Database of Analysed Texts in English), qui contient environ 42 000 entrées lexicales, et Framenet, qui en contient environ 10 000. Elle note qu'une partie des informations contenues dans les deux bases se recoupent (unité lexicale, catégo- rie grammaticale, expressions avec des verbes support...), et que les autres informations pourraient se compléter (collocations, par exemple, pour DANTE et rôles sémantiques pour Framenet), et conclut qu'il semble possible (et utile), de trouver un moyen d'unifier automatiquement ces deux bases de données afin d'en créer une seule, plus complète.
L'article d'Adam Kilgarriff et Pavel Rychlÿ, « Semi-Automatic Dictionary Drafting », revient sur la théorie «Norms and Exploitation» de P. Hanks et montre qu'elle peut être utilisée, avec un grand corpus, afin d'améliorer les techniques automatisées de désambiguïsation des mots. Les auteurs présentent un logiciel, SADD, allant dans ce sens.
Paul Bogaards pose la question de l'existence d'une théorie lexicographique dans l'article «Lexicography :Science without Theory? ». Il semble en effet communément admis qu'il n'existe pas réellement de théorie en lexicographie, même si la création d'un dictionnaire nécessite une théorie linguistique, une théorie psycholinguistique et une théorie de l'information, afin que les données lexicales soient décrites de façon à être comprises par le lecteur. Cela rend la lexicographie dépendante d'autres disciplines, ce que Bogaards ne considère par forcément comme souhaitable. Finalement, selon lui, peu importe les théories utilisées si le but reste le même :écrire de bons dictionnaires.
Miroslaw Banko, dans «The Polish COBUILD and its Influence on Polish Lexicography », revient sur les origines du COBUILD polonais (ISJP). Il raconte comment, après avoir découvert le COBUILD anglais dont P. Hanks est à l'origine, il a travaillé de façon à produire le même type d'ouvrage pour le polonais. Il revient sur les écueils à éviter,
270 et pour finir, expose ce qui différencie le COBUILD de P. Hanks et le ISJP, particulièrement le fait qu'il soit destiné à des locuteurs natifs.
Jonathon Green republie un article de Critical Quaterly : «ARGOT :The Flesh Made Word ». Il considère que cet article est celui qu'il aurait écrit s'il avait pu satisfaire à la demande de P. Hanks, qui lui avait demandé une histoire de l'argot français pour son Encylcopédie du langage et de la linguistique (Encyclopedia of language and Linguistics). Il revient sur l'étymologie incertaine du mot, sur ses premières attestations, et son histoire du xv° siècle à aujourd'hui, même si certains affirment qu'il n'a pas survécu à la seconde guerre mondiale.
L'article de Michael Rundell, « Defining Elegance », porte sur la notion d'élé- gance en lexicographie. Il revient sur le sens du mot, plutôt positif, son étymologie, et son importance dans tous les domaines, même dans les sciences dites «dures ». En lexico- graphie, un dictionnaire doit être à la fois concis, informatif et compréhensible pour être qualifié d'élégant. Rundell revient alors sur ce que signifie élégance du point de vue de la microstructure et de la macrostructure du dictionnaire, et termine par des éléments plus généraux : le fait, entre autres, que la vision des dictionnaires a changé avec l'importance grandissante des dictionnaires électroniques, et que l'élégance consiste à tenir compte du fait que l'utilisateur n'est pas linguiste.
Dans l'ensemble, cet impressionnant ouvrage aborde tous les domaines qui touchent au lexique, grâce à des articles très théoriques ou au contraire très pratiques et concrets. Il constitue par conséquent un ouvrage de référence pour des lecteurs déjà aguerris dans le domaine de la lexicologie/lexicographie.

Hélène MANLTÉLIAN
LDI (UMR 7187)
Université de Cergy-Pontoise et Université Paris 13 Nord
helene.manuelian@u-cergy.fr

L'auteur du compte rendu remercie Jolm Humbley de lui avoir transmis les notes qu'il avait prises sur cet ouvrage.