Aller au contenu

Classiques Garnier

La macroéconomie est–elle une discipline empirique ?

  • Type de publication : Article de revue
  • Revue : Revue d’histoire de la pensée économique
    2018 – 2, n° 6
    . varia
  • Auteur : Taouil (Rédouane)
  • Résumé : Suite à l’essor de l’application des techniques économétriques, la macroéconomie est considérée comme une discipline empirique. Cette conjecture est discutable à l’examen de l’équation de Phillips, la règle de Taylor et la critique de Lucas. Les énoncés empiriques ne sauraient participer à la construction de propositions théoriques, ni les invalider ou les départager. D’autre part, la méthode de l’équilibre général dynamique s’appuie sur des hypothèses qui accordent la préséance à la théorie.
  • Pages : 117 à 139
  • Revue : Revue d’histoire de la pensée économique
  • Thème CLIL : 3340 -- SCIENCES ÉCONOMIQUES -- Histoire économique
  • EAN : 9782406087595
  • ISBN : 978-2-406-08759-5
  • ISSN : 2495-8670
  • DOI : 10.15122/isbn.978-2-406-08759-5.p.0117
  • Éditeur : Classiques Garnier
  • Mise en ligne : 05/12/2018
  • Périodicité : Semestrielle
  • Langue : Français
  • Mots-clés : Nouvelle synthèse, équilibre général dynamique stochastique, économétrie empirie, préséance de la théorie
117
LA MACROÉCONOMIE EST-ELLE
UNE DISCIPLINE EMPIRIQUE ?




Rédouane TAOUIL
Université Grenoble Alpes


Il est de plus en plus fréquent de souligner que, grâce à l'extension de l'application des méthodes quantitatives, la science économique s'avère de même nature que la biologie, la médecine ou la physique. L'argument principal fourni à l'appui de cette assertion repose sur le constat du recul des publications à caractère théorique, tous champs disciplinaires confondus, au profit de celles qui se rattachent aux expé- riences naturelles, aux expérimentations aléatoires ou en laboratoire ou à l'analyse des données au moyen d'approches et techniques économé- triques promues depuis les années quatre-vingt. Cette configuration, qui semble participer de la révolution de crédibilité chère à J. Angrist et J.-S. Pischke (2010), et de son idéal d'une connaissance bâtie sur des comptes rendus d'observations, s'adosse à la conception selon laquelle l'empirie est le fondement ultime de la connaissance scientifique.
La macroéconomie est tenue à cet égard pour une illustration d'autant plus éloquente qû elle est réputée avoir renforcé ses assises empiriques sous l'impulsion de l'économétrie des séries temporelles. La remise en cause de la tradition structurelle héritée de la Commission Cotyles a ouvert la voie au développement de modèles à vocation observationnelle. Ce tournant, qualifié de changement paradigmatique (Cook, 2003 ; Meuriot, 2011), a jeté le soupçon sur la place allouée à la théorie par la macroéconomie appliquée, et a inauguré, grâce aux techniques des vecteuxs autorégressifs (VAR) et de cointégration, la stratégie de «faire parler les données ».
118
Suite au renouvellement des méthodes d'estimation, à la mise au point de nouveaux tests et à l'application de procédures d'inférence bayésienne, l'économétrie a largement opté pour une démarche à dominante des- criptive. Une telle tendance ne justifie cependant pas de considérer que la nouvelle synthèse (Blanchard, 2009 ; Clarida, Jordi & Gertler, 1999 ; Goodfriend &King, 1997 ; Woodford, 2003), qui incarne aujourd'hui la macroéconomie dominante, soit de facture empirique. Ainsi que le montre l'examen de la relation de Phillips, de la règle de Taylor, de la critique de Lucas ou l'hypothèse d'anticipations rationnelles, les résultats économétriques ne conditionnent pas la configuration des modèles outre que ces concepts sont marqués du sceau de la théorie, les énoncés empiriques ne jouent pas un rôle décisif de confirmation ou de réfutation. D'autre part, la méthode de l'équilibre général dynamique, à l'oeuvre dans la nouvelle synthèse, met en jeu des hypothèses et des règles d'inférence qui écartent l'adéquaxion empirique comme principe d'évalua.tion des modèles et accordent le primat aux exigences de cohérence interne et d'envergure de la capacité explicative dictées pax la préséance de la. théorie.


I. LA MISE Â I:ÉPREUVE EMPIRIQUE EN QUESTION


Les tenants du triomphe de la démarche empirique soutiennent que les données quantitatives parlent d'elles-mêmes. Après avoir connu un pic de 57,6 % du total en 1987, les études théoriques baissent à 28 % en 1993 et à 19,1 % en 2011. Suite au foisonnement des bases de données et au développement des capacités de traitement, la part relative des études empiriques sur données propres est de l'ordre de 34 %tandis que celles concernant les travaux sur données externes et les expérimentations sont respectivement de 29,9 % et 8,8 % (Hamermesh, 2012). Ces travaux empruntent deux formes censées caractériser le savoir scientifique :d'un côté, l'observation dont l'objet est l'exploration de données à l'aide de plusieurs instruments en vue de quantifier et de décrire formellement des mécanismes ou comportements, de l'autre, l'expérimentation qui consiste à procéder, pax le recours à des protocoles, au contrôle de conditions d'interaction de phénomènes dans le but de dégager des causes ou des déterminants d'effets.
119
TAB. i —Évolution de la répartition des publications d'articles par catégorie.
Source : Hamermesh (2012).


Année

Théorie

Théorie avec simulation
Études empiriques sur données externes
Érudes empi-
riques sur
données internes

Érudes expérimentales
1963
50.7
1.5
39.1
8.7
0

1973
54.6
4.2
37.0
4.2
0

1983
57.6
4.0
35.2
2.4
0.8

1993
32.4
7.3
47.8
8.8
3.7

2003
28.9
11.1
38.5
17.8
3.7

2011
19.1
8.8
29.9
34.0
8.2

La consécration de cette démaxche comme garante de scientificité repose sur deux considérations placées au rang de préceptes (Caxtelier, 2017) outre que la connaissance économique doit s'arc-bouter à des propositions d'analyse en termes de concepts qui tirent leur signification de l'observation ou de l'expérimentation, la pierre de touche tient à la validation, pour l'acceptation ou le refus des énoncés, à ces moments de l'empirie.
À examiner cette thèse, à l'aune de la nouvelle synthèse, elle apparaît sujette à discussion. Non seulement le contrôle empirique ne façonne pas le contenu des théories, mais il n'apparaît pas apte à en mesurer la valeur analytique. Pareille inadéquation tient à la préséance de la théorie en tant qu'ensemble de propositions inférées selon un ordre déductif.
Est emblématique à cet égard, la trajectoire de la relation de Phillips depuis sa version originelle (1958) jusqû à sa reformulation dans les termes de l'équilibre dynamique stochastique. Initialement, cette catégorie exprime une liaison statistique construite à partir de données de la. Grande-Bretagne sur la période 1861-1957, qui stipule que le niveau du chômage explique la variation des salaires nominaux sans fournir une justification théorique. Très rapidement, ce résultat est intégré dans la. macroéconomie keynésienne pour en étendre le champ d'analyse à la relation emploi-salaire-inflation et en étoffer la dimension normative (Samuelson & Solow, 1960). D'une part, la relation de Phillips décrit, une relation décroissante entre le taux de chômage et le taux d'inflation moyennant le principe du mark up
awtNt _ awt
Pt — Qt 9t
120
Pt est le prix, a est le taux de marge, wt est le salaire nominal, Nt le niveau d'emploi et qt la productivité du travail.
Sous l'hypothèse d'une compensation intégrale de la hausse du salaire par la productivité, l'équation de Phillips s'écrit
rct = F(ut) avec F(ut) < 0
TCt est le taux d'inflation et ut le taux de chômage.
D'autre part, le décideur de la politique monétaire peut arbitrer entre des combinaisons inflation-emploi dont les pertes en l'une sont compensées par des gains en l'autre.
Sous cet angle, la courbe de Phillips acquiert une signification théo- rique indissociablement liée à la dynamique de l'inflation et du chômage et à la conception de la politique monétaire comme instrument d'action sur la demande globale sur la base de préférences collectives.
La remise en cause de ce statut par Friedman (1968) participe d'une reformulation qui restaure le rôle du marché du travail dans la détermi- nation du niveau d'emploi aussi bien que la neutralité de la monnaie. Comme le salaire varie en fonction de la demande nette sur ce marché, il vient

w/p w p — f (u) avec f'(u) < 0
Telle qu'elle est reconsidérée, cette relation postule que le salaire est fixé compte tenu de l'inflation anticipée rca

w = f (u) + ~a
w

Cette équation intègre les anticipations des effets de la politique monétaire pax les agents en considérant une asymétrie entre les ménages et les firmes. Tout en forgeant leurs prévisions d'inflation en termes de salaires réels, les ménages sous-estiment l'évolution du niveau général des prix. Face une hausse de leur rémunération nominale, ils accroissent leur offre de travail. En revanche les firmes observent adéquatement le mouvement des prix. La demande de travail, étant dépendante du salaire réel, l'emploi augmente et le taux de chômage diminue. En
dw/p w p
121
admettant ainsi un impact des grandeurs nominales sur l'économie réelle, cette relation suppose une relation inverse à court terme entre taux d'inflation et taux de chômage. À long terme, cette relation est instable :l'ajustement des anticipations par les ménages compte tenu de l'inflation observée implique que le taux de chômage peut s'écarter durablement de son niveau naturel qui reflète les conditions structu- relles du marché du travail. Dans la nouvelle économie classique, la conjonction entre les hypothèses de parfaite flexibilité des prix et des salaires et la formation rationnelle des anticipations se traduit par la construction de la relation de Phillips à nouveaux frais
ut = un — a (rct — Et~t)
entraîne la dissolution de la dissociation entre le court et le long terme.
Cette relation, qui participe de la définition de la politique écono- mique comme un jeu stratégique constitue une contrainte à laquelle sont soumises les préférences de la banque centrale (Lucas, 1972). Les chocs de politique monétaire étant parfaitement anticipés, le taux de chômage ne dévie pas de son niveau naturel, un. Cette proposition clé entraîne la dissolution de la distinction entre le court et le long terme et par conséquent la verticalité de la courbe de Phillips. La révision de la relation entre inflation et chômage, dans les termes de l'équilibre général dynamique par la nouvelle synthèse, rétablit quant à elle l'efficacité de la politique monétaire à court terme en mettant en avant le rôle des anticipations rationnelles dans le contexte de rigidités
Act = bEt~t+1 + cYt
Et~t+1 est l'anticipation rationnelle de l'inflation future et yt est le niveau d'équilibre de l'écart de production à celui correspondant à la parfaite flexibilité des prix et b et c des paramètres.
C'est cette relation positive entre inflation et emploi que la nouvelle synthèse intègre dans son analyse du comportement optimal de la banque centrale ;celle-ci définit une règle active de taux d'intérêt pour agir sur la demande.
Au vu de ces réécritures, se dégage une conséquence de taille qui atteste la préséance de la théorie dans l'inférence des énoncés sous le
122
double caractère positif et normatif. Si c'est un résultat empirique qui est l'origine de l'exploration de la relation de Phillips, il n'a pas conditionné la. construction des objets et des concepts. Ainsi que le montre le terrain emprunté pax le débat, les enjeux concernent directement les contenus théoriques d'approches en compétition. Il apparaît, à travers la problématique de la neutralité de la monnaie, que la discipline de l'équilibre (Lucas, 1987), dont les normes sont la rationalité des agents et l'apurement systématique des marchés, commande le traitement de l'équation de Phillipsl. À l'aide ces normes, la nouvelle économie classique rétablit, à nouveaux frais, le principe de détermination des équilibres par les seules variables réelles, en même temps qu'elle écarte, à l'aide des anticipations rationnelles, la possibilité d'illusion monétaire. Ce faisant, elle promeut la proposition d'inefficacité de la politique moné- taire et, son corollaire, la nécessité d'engagement du décideur public sur la base de règles destinées à éliminer l'incohérence temporelle et à garantir une trajectoire de l'économie gouvernée pax les préférences des agents et la technologie. Représentative du comportement de l'offre globale, l'équation de Phillips est une pièce maîtresse de cette analyse où le court et le long terme sont confondus. Dans ce sillage, elle élargit le champ de la discipline de l'équilibre en considérant que les rigidités nominales consécutives à des imperfections s'accompagnent à court terme d'écarts au niveau naturel de production. En tant qu'expression des comportements intertemporels des prix, la relation de Phillips recouvre une fonction d'offre agrégée où les anticipations influent sur l'inflation présente. Dans ce contexte, la gestion de la demande globale par la banque centrale en fonction de sa cible d'inflation participe au pilotage des anticipations et crée les conditions d'ajustement de l'offre à son niveau de long terme.
Non seulement, l'équation de Phillips s'est trouvée modelée par les contextes théoriques où elle est insérée, mais son analyse économétrique
1 Analysant l'influence de la nouvelle macroéconomie classique, R. Schettkat (2010, p. 204)
souligne avec netteté comment cette discipline commande la recherche à la fois sur les plans positif et normatif :«C'est ainsi que le marché parfait — en fait, une économie projetée dans une dimension intemporelle, totalement artificielle, à l'abri de toute friction, et dans lequel l'analyse ne porte que sur les situations d'équilibre —devint l'aune qui permit d'évaluer toutes les institutions du monde réel; l'hypothèse de l'efficience des marchés, le taux narurel de chômage et les anticipations rationnelles devinrent quant à eux la grille d'évaluation obligée de toutes les politiques économiques ».
123
est menée au sein de ces contextes comme en témoigne la configuration des études empiriques de l'équation générale
rc = Bara + f (u) — ~ avec f (u) < 0
~ et rca sont respectivement l'inflation effective et l'inflation anticipée, 7l la croissance de la productivité du travail et B le coefficient d'élasticité des anticipations.
Selon cette équation, qui confère un rôle déterminant au mécanisme de formation des anticipations, la pondération du coefficient associée à celle-ci reflète la transcription théorique dont fait l'objet la relation de Phillips. En effet, le cas où l'élasticité d'anticipation est unitaire (B = 1) correspond à l'analyse friedmanienne qui par la prise en compte du comportement adaptatif s'inscrit en faux contre les anticipations statiques caractéristiques de la relation originelle. Dans le cas où 0 < B < 1 , l'alternative entre inflation et chômage est confirmée. Cette conclusion qui a été soutenue à l'occasion du débat des années soixante-dix (Fitoussi, 1972) s'adosse au plan théorique à l'hypothèse d'imparfaite flexibilité des prix et des salaires et de défaut d'ajustement de ceux-ci à ceux-là.
La critique de Lucas a renforcé cette imprégnation par la théorie, en mettant en doute la pertinence empirique des modèles keynésiens. Elle considère ces derniers inaptes à prévoir les effets des politiques économiques en ce qu'ils reposent sur l'identification de la pente de la courbe de Phillips comme une donnée exogène. Ce faisant, elle implique que l'évaluation de ces effets nécessite l'intégration de paramètres structurels déduits des règles de décision optimales des agents. Sous ce rapport, elle suggère de faire des anticipations des agents et de leurs réactions à leur environnement le principe cardinal de construction des modèles d'analyse et de prévision de l'impact des politiques économiques.
Les estimations des performances du ciblage de l'inflation, stratégie caractéristique de la nouvelle synthèse, sont, à leur tour, significatives de la prépondérance des propositions théoriques dans l'agencement du contrôle empirique. Ces estimations privilégient le recours à l'équation de Phillips prospective
124
TC et Et(~t+i) sont respectivement l'inflation effective et les anticipa- tions d'inflation, yt l'écart de production, a est un paramètre, /~ une pondération qui mesure l'impact de l'inflation sur l'inflation actuelle et zt est un choc d'offre.
Les études effectuées sur la base de cette équation mettent l'accent sur le rôle des anticipations d'inflation, en prenant en compte les sou- bassements analytiques tels que la contrainte de crédibilité de la banque centrale, l'engagement en faveur de la stabilité des prix ou le maniement du taux d'intérêt. Certaines estimations (Lewin, Natalucci &Piger, 2004) procèdent à la régression des anticipations sur les valeurs passées de l'inflation en distinguant les pays cibleurs et ceux ayant conservé la stratégie de ciblage de la masse monétaire. D'autres (Neumann &Von Hagen, 2002) examinent la relation entre l'évolution du taux d'intérêt à long terme et les anticipations en comparant les effets des chocs pétroliers de 1978 et 1998. Il s'en dégage que le ciblage de l'inflation renforce l'efficacité de la transmission de l'information par les autorités monétaires et contribue de ce fait à l'ancrage des anticipations.
Les diverses versions de la relation de Phillips signalent au total que la théorie remplit une fonction constitutive à l'égard de la structure conceptuelle comme au niveau de l'épreuve empirique à travers le lan- gage, les procédés et les énoncés d'observation. La règle de Taylor, autre pièce maîtresse de la macroéconomie aujourd'hui, fournit une illustration non moins éloquente de cette fonction. Conçue par l'auteur éponyme comme une catégorie descriptive du comportement de la. Réserve Fédérale américaine au cours de la période 1987-1992 (Taylor, 1993), cette règle relie le taux d'intérêt directeur aux déviations d'inflation et d'activité


l* est le taux d'intérêt naturel, y le PIB effectif, y* le PIB potentiel, TC l'inflation courante, TC* l'inflation cible, GL et ~ les poids associés aux écarts.
Cette règleZ, qui a fait l'objet de nombreux tests, n'a pas reçu de confirmation concluante. Des études de la Réserve Fédérale montrent
2 Taylor attribue à son équation une validité générale : H les simulations du modèle mettent
en évidence que de simples règles de politique monétaire fonctionnent très bien dans une
125
que les coefficients des fonctions de réactions manifestent une variabi- lité en fonction de l'état de la conjoncture exprimant ainsi des dévia- tions vis-à-vis des résultats de Taylor (Rabanal, 2004 ; Clarida, Gali & Gertler, 1998). Le comportement de la Banque centrale américaine est asymétrique : la priorité est accordée au contrôle de l'inflation en période d'expansion et à l'activité lors des récessions au prix d'écarts quant à l'objectif d'inflation. Malgré des conclusions contrastées quant à sa portée, cette règle est devenue une catégorie de la théorie de la politique monétaire qui se déduit à partir du programme de la Banque centrale sous les contraintes de la relation de Phillips et de la demande globale, elles-mêmes définies dans une optique théorique. Comme telle, elle est indéfectiblement liée à la discipline d'équilibre. Ainsi que le constate
L. Summerss3 : «les résultats économétriques sont raxement un ingrédient important dans la création théorique » (1991, p. 129).
La variation de la signification de l'équation de Phillips et de la règle de Taylor signale l'impossibilité d'établir un contenu empirique invariant susceptible de fournir des critères d'acceptation ou de rejet des propositions théoriques. Les énoncés, sont en effet, par construction, nécessairement contingents4. Leur valeur est tributaire du choix de variables, du protocole d'observation, des hypothèses auxiliaires autant que de la charge théorique des instruments de mesures. De ce fait, ils ne peuvent prétendre au statut d'énoncés catégoriques susceptibles
variété de situations [...]. En outre, les principaux résultats obtenus concernant ces règles proposées pour les États-Unis semblent pouvoir s'appliquer à plusieurs pays» (Taylor, 1997, p. 657).
3 La thèse maîtresse de Summers (1991) est que les tests statistiques formels développés dans les années 1980 ne conditionnent pas, malgré leurs aspects sophistiqués, la formu- lation des énoncés théoriques. Cette sentence n'a pas perdu de sa pertinence. I:ancrage au sein de la macroéconomie du principe d'invariance ou de neutralité de la monnaie à long terme, du théorème de l'équivalence ricardienne ou de l'impératif de crédibilité de la politique monétaire ne doit pas grand-chose à des succès économétriques. Ces analyses sont précisément issues de modèles théoriques qui reposent sur « la création de systèmes artificiels totalement organisés» (Lucas, 1980).
4 S. Ruphy (2013) aborde cette question dans les termes de dépendance à l'égard du che- min emprunté dans l'élaboration des énoncés empiriques :les données sont empreintes de l'ensemble des choix concernant les constituants théoriques et les hypothèses de départ, les outils de conception et de résolution des équations des modèles, les modalités d'interprétation des résultats.
5 La dépendance de la signification des résultats vis-à-vis des données comporte, selon J: M. Dufour, deux faiblesses : «premièrement, les modèles qui sont trop "proches" des données ont tendance à être compliqués et difficiles à généraliser; deuxièmement, une
126
de prendre en défaut un modèle ou de participer à la formulation de propositions d'analyse stables. Cette caractéristique, due à la variété des démarches, n'est guère surprenante. Comme l'affirme A. Pulido «Léconomie est condamnée par sa propre nature à ne pas donner des réponses uniques. En général, n'importe quelle question peut être abordée sous des angles et dans des cadres différents appliqués à des données non moins différentes » (2002, p. 29).
Cette surdétermination par la théorie est visible également dans la primauté accordée à la critique de Lucas qui s'est imposée à la démarche modélisatrice alors qu'elle ne possède pas de titres de validation empi- rique comme l'attestent des études qui réaffirment la pertinence de l'économétrie structurelle6. D'une part, l'estimation des coefficients de comportement peut incorporer les réactions des agents face à un change- ment de décisions publiques et servir ainsi à des prévisions. D'autre part, les paramètres ne subissent pas à court terme des variations d'ampleur significative (Ericsson &Irons, 1995). Toujours est-il que les modèles d'équilibre général dynamique se sont évertués à relever le défi lucasien en optant pour l'impératif de micro-fondements et, partant, pour la construction de modèles centrés sur l'interdépendance entre les décisions individuelles et les variables de politique économique : «Les relations entre la pratique de l'économétrie et la critique de Lucas —notent I. Asso et R. Davidson —restent paradoxales, même à nos jours. On cherchera en vain dans la littérature empirique des tests du principe de la critique elle est acceptée la plupart du temps comme maxime de la théorie comme de la pratique en revanche des modèles dont les soubassements devraient être hautement discutables du point de vue de la critique de Lucas semblent rendre compte de faits empiriques et semblent résister à tous les tests modernes de spécification» (1999, p. 325).
hypothèse trop "générale" peut devenir effectivement vide (non testable), sans que l'on s'en rende compte », (2000, p. 9)•
6 S. Fischer note à ce sujet «l'argument selon lequel les anticipations rationnelles ont
signalé la fatale ambiguïté des modèles macro-économétriques keynésiens n'a jamais reçu
une formulation adéquate» (1996, p. 25). Dans le même ordre d'idées, E. Malinvaud
soutient qu'« en effet les petits modèles illusttatifs présentés pat Lucas et d'autres ne
démontraient pas plus qu'une possibilité qu'ils n'étaient en rien testés dans leur validité
empirique. Malgré sa prétention à établir une telle validité, l'école dite des cycles réels
ne changera pas fondamentalement la situation en raison de la légèreté méthodologique
qu'elle appliquait à la validation empirique (notamment en évitant avec soin tout ce qui
pourrait falsifier leurs modèles présentés)» (1997, p. 21).

127
L'adhésion à une proposition d'analyse n'est dès lors pas conditionnée pax ses succès empiriques. Le défaut de concordance entre les conséquences d'une théorie et les énoncés observationnels est loin de constituer une preuve contraignante. Ainsi, l'hypothèse d'anticipations rationnelles a un statut prépondérant aujourd'hui alors qu'elle a fait l'objet de tests directs portant sur les propriétés de cohérence, d'orthogonalité et d'absence de biais qui ont plaidé en sa défaveur (Lovell, 1986 ; Keane & Runkle, 1990). Ces infirmations, qui ont mis en évidence les écarts entre les comportements des agents privés et la formation rationnelle des anticipations, n'ont cependant pas disqualifié le recours à cette hypothèse. Bien plus, elle s'est profondément ancrée au détriment de l'hypothèse des anticipations adaptatives qui, elle, bénéficie de tests qui confirment que les agents sous-estiment systématiquement l'inflation a fortiori lors de retournements conjoncturels.
De telles limites de la testabilité tiennent à l'ambigüité du contrôle empirique. Comme le stipule le problème de Duhem-Quine, que J.-M. Dufour (2000) tient pour omniprésent en économétrie, l'évalua.tion d'une théorie s'exerce sur un système de propositions insécables. Une proposition n'est pas soumise individuellement àl'épreuve en ce que le test s'applique nécessairement à toute la structure théorique autant qu'aux conditions auxiliaires de la formulation empirique. La conjonction entre, d'un côté, les hypothèses afférentes au protocole d'estimation et, de l'autre, les propositions déduites par voie logique impose de prendre la théorie soumise à examen comme un ensemble solidaire. Ainsi, l'évaluation de la stratégie du ciblage concerne à la fois la rationalité des anticipations des agents, le mode de fonctionnement des marchés le comportement des autorités monétaires autant que les aménagements consécutifs à la quantification et la description des mécanismes en jeu. Il n'est dès lors pas possible d'identifier les énoncés et les hypothèses auxiliaires à incriminer ou à considérer comme décisifs. Les résultats établis ne sauraient être tenus pour concluants quant à la portée de la mise à l'épreuve'.
Quelle que soit la qualité de la charge de la preuve et des données fournies pax le test d'une analyse, celle-ci ne peut être déclarée validée ou
7 Lors de la controverse sur les anticipations rationnelles, les nouveaux classiques (Lucas,
1986; Prescott, 1977 ;Sargent, 1982) n'ont pas manqué de considérer, en réponse aux tests des hypothèses, que c'est en bloc qu'une théorie est confrontée aux énoncés obser- vationnels faisant ainsi leur le holisme de Duhem et Quine.
128
infirmée. Ainsi que le souligne C. Wilber (1979), le contrôle empirique ne peut jouer un rôle d'axbitre et départager des énoncés en compétition. Il n'existe pas un critère pour trancher étant données les difficultés et la variété de traduction des variables clés dans les catégories écono- métriques. D'abord, les propriétés conférées aux variables susceptibles de participer aux tests sont souvent établies par des réaménagements du cadre théorique. Ensuite, il y a nécessairement asymétrie entre les grandeurs observées et celles sans contrepartie empirique. Enfin, la confrontation entre le modèle et les données revient à la mise en rapport entre des concepts et des observations qui ne sont pas imprégnés par les mêmes énoncés théoriques. Pour autant, la testabilité empirique s'avère seconde au regard de l'examen de la cohérence interne qui implique qu'une proposition doit être évaluée compte tenu de sa position dans la stratégie modélisatrice.


II. MÉTHODE DE L'ÉQUILIBRE GÉNÉRAL DYNAMIQUE
ET PRÉSÉANCE DE LA THÉORIE


De par sa propre méthode, la nouvelle synthèse implique la surdé- termination par la théorie (Woodford, 2012). Selon cette méthode, qui porte l'empreinte de l'oeuvre de Lucas (1987), un modèle constitue un instrument de prédiction dont les hypothèses ne doivent en aucun cas posséder un contenu empirique. Cette récusation du principe de réalisme des hypothèses implique que des hypothèses riches, d'un point de vue descriptif, sont inadéquates parce qu'elles enfreignent la règle de parci- monie en vertu duquel une théorie doit être formulée suivant le critère de la simplicité. En ce sens, les hypothèses les mieux appropriées à la construction théorique sont celles qui sont nécessairement fausses sur le plan descriptif (Townsend, 1988). Il s'ensuit que les énoncés théoriques sont bâtis au moyen d'hypothèses qui ne doivent rien au comportement réel des économies. à preuve le cas exemplaire de la rationalité opti- misatrice, pierre angulaire de la discipline de l'équilibre, qui est tenue pour irréfutable tant elle ne saurait être mise en doute par des procé- dures économétriques ou encore par des preuves issues d'enquêtes sur
129
les principes de décision des agents. À cet égard, les normes d'analyse qui considèrent que le principe de maximisation de fonction-objectifs doit être appliqué comme si les agents s'y conforment dans leur pro- cessus décisionnel$. Le principe de «comme si » s'impose du fait de sa vocation heuristique qui consiste à délimiter un corps d'hypothèses et en explorer les conséquences. Dotée de cette vocation, l'hypothèse d'anticipations rationnelles, dont la place est insigne dans l'exploration de la dimension prospective des choix individuels, implique que les agents se comportent comme s'ils possédaient une connaissance du système économique identique à celle du modélisateur. Le recours à ces fictions (Barberousse & Ludwig, 2000), découle de leur capacité à expliquer le comportement du cycle, les chocs et leur propagation, les réactions individuelles des agents et les retombées des politiques économiques dans une perspective dynamique. Dans ce contexte, le modèle théorique est un système organique constitué d'énoncés analytiques ordonnés par un langage qui ne repose pas sur des observations, mais sur des entités conceptuelles qui se rapportent les unes aux autres de sorte que la signification de chaque terme est fixée par ses relations aux autres. Le modèle canonique de la nouvelle synthèse témoigne avec éloquence de ces propriétés (Woodford, 2003). Sous sa forme réduite, ce modèle DSGE (dynamic stochastic general equilibrium) met l'accent sur la dimen- sion intertemporelle des comportements des agents et la composante stochastique des formes structurelles, en reformulant les fonctions de demande et d'offre agrégées. Il repose sur une équation de demande globale fondée sur l'optimisation dynamique de la consommation des
8 Le débat sur la macroéconomie à l'occasion de la crise financière ouverte en 2008 s'est
accompagné d'un questionnement sur la stratégie modélisatrice à l'aeuvre dans la nouvelle synthèse. Sont significatifs à cet égard les échanges entre J. Kay (2012) qui attache une grande importance au réalisme descriptif et M. Woodford (2012) dont la préférence va à la conception des modèles comme construction artificielle. Pour Kay, cette conception est frappée de deux vices qui attestent que la carte qu'elle établit ne correspond pas à la réalité du territoire de l'économie. D'une part, elle s'appuie sur une gamme d'hypothèses irréelles qui n'ont pas de pouvoir descriptif. En second lieu, elle contient des prédictions qui sont désavouées par les rurbulences financières et les dysfonctionnements réels. Cette critique d'irréalisme, souvent opposée à la conception des modèles comme constructions artificielles, apparaît irrecevable aux yeux de Woodford en ce qu'elle fait fi des caractéris- tiques de la démarche formelle qui tiennent à la congruence entre les énoncés au sein de la chaîne démonstrative, l'inférence des conclusions par voie déductive et la possibilité de questionnement des théories selon les critères de la rigueur logique dont les exigences sont autrement plus fortes que celles des tests empiriques.
130
ménages, une relation de Phillips dérivée à partir du comportement de prix des firmes en concurrence monopolistique, et sur une règle de taux d'intérêt de la Banque centrale.
La demande agrégée s'écrit
Yt = aEtYt+i + (1 — a)Yt-i S(it — Et~t+i) + Ed

Yt~ EtYt+i et yt_1 sont respectivement les écarts de production pré- sent, futur et antérieur, i le taux d'intérêt nominal à court terme, Et~t.~ l'inflation anticipée en t pour la période t+1, a mesure le degré de per- sistance et S l'influence du taux d'intérêt réel sur le produit présent,
Ed est un choc aléatoire de moyenne nulle et de variance constante, et Et l'opérateur des anticipations que font les agents conditionnellement à l'information disponible.
Ainsi définie, la demande agrégée est une fonction décroissante du taux d'intérêt réel et croissante de la production future. La sensi- bilité au taux d'intérêt et à la production anticipée, déduite à partir du programme de choix intertemporel d'un ménage représentatif, implique d'une part, qu'une hausse des revenus futurs se traduit par une consommation présente plus importante, et d'autre part, que la substitution intertemporelle des consommations est opérée en fonction du coût d'opportunité.
La fonction d'offre agrégée est donnée par


TCt est l'inflation à la période t, Et~t+1 l'anticipation de l'inflation future, TCt_1 est l'inflation antérieure et Et un choc sur les coûts de production qui a les mêmes propriétés que la perturbation de demande, ~ reflète le degré d'inertie de l'inflation et y la sensibilité de l'inflation à l'activité.
Une telle fonction est une reformulation de la courbe de Phillips. Elle fait dépendre le taux d'inflation de l'écart de production et des anticipa- tions d'inflation rationnellement formées par une firme représentative. Celle-ci fixe son prix de vente en appliquant un rapport de marge aux salaires qu'elle ne révise pas en cas de variations limitées de la demande. La conséquence d'un tel comportement est que les ajustements de prix dépendent de l'inflation passée et de l'inflation anticipée.
131
La Banque centrale détermine la politique monétaire optimale en minimisant sa fonction de perte de bien-être social par rapport au taux d'intérêt nominal sous les contraintes de la demande et de l'offre agrégées.
Cette fonction s'écrit
Lt = (art ~*)Z + P(Yt — Y*)Z

(rct rc*) est l'écart de l'inflation à sa cible et (yt y*) l'écart de l'activité à son niveau désiré et p le poids accordé par la Banque cen- trale àl'emploi.
La condition d'optimalité donne la règle du taux d'intérêt, soit

lt = Pit-i + (1 — P) (rte Est+i + ryYt) + Epm,
P est la pondération de l'influence du taux d'intérêt antérieur, 1'~ et ry des paramètres positifs dépendants des paramètres associés à l'inflation
et à la production et s~m un choc. La fonction de réaction des autorités monétaires dépend ainsi du comportement passé des autorités monétaires, des anticipations d'inflation et de l'écart de production.
Les trois équations constitutives de ce modèle, qui sert primordia- lement de guide dans la formulation d'énoncés et d'explications et, par conséquent, dans la dynamique des connaissances macroéconomiques, ne sont pas dérivées d'un exercice d'observation. La nature de leurs termes théoriques dépend de leur traduction formelle dans un réseau de propositions à l'aide de fictions. L'instauration de leur bien-fondé ne résulte pas, non plus, de l'aval du contrôle empirique. Ainsi que le soutient L. Laudan dans son analyse des traditions de recherche « la plupart des problèmes conceptuels sont plus lourds de conséquences que les anomalies empiriques » (1987, p. 80). Cette thèse possède un relief insigne dans le savoir macroéconomique comme en témoigne l'évolution interne des modèles théoriques.
Le parti pris de la nouvelle synthèse en faveur du primat de la théorie la conduit à octroyer une place de choix à la méthode du calibrage. Cette méthode consiste à déterminer, sous l'égide d'un modèle formel, les valeurs des paramètres structurels à partir de données construites ou d'observations indépendantes et à établir au moyen de la résolution numérique, une correspondance obligée avec le modèle théorique en
132
respect des contraintes de cohérence. Sous cette version, ce dernier est utilisé pour analyser les effets des changements de politique écono- mique. Situé aux antipodes de la démarche descriptive, le calibrage implique que seule la théorie détermine la structure des relations économiques. De par l'accent mis sur la nécessité d'un lien solide entre hypothèses et conséquences, les modèles théoriques n'appellent pas, quant à l'évaluation de la pertinence des formes structurelles, une adéquation avec les données empiriques. Ensuite, les hypothèses de base sont, par construction, soustraites aux tests. Il en est ainsi de la formation rationnelle des anticipations et de la flexibilité parfaite des prix dont la fonction est de participer à l'inférence systématique des conséquences par la seule voie analytique. Le modèle théorique n'est pas considéré comme un intermédiaire entre la théorie et l'empirie. Les spécifications ne sont pas à ajuster sur la base de résultats écono- métriques. De ce fait, la place conférée aux considérations empiriques, le principal critère d'évaluation d'un modèle est la reproduction fidèle de certaines caractéristiques. Le calibrage consacre en définitive l'utilisation de la démarche économétrique au profit de modèles struc- turels qui associent des règles explicites de politiques économiques à des modalités d'équilibre en privilégiant la simulation. Les écarts entre les propositions d'analyse et les observations que cet exercice peut révéler sont censés provenir des instruments à l'aide desquels ces observations sont établies.
Un tel hiatus n'a pas instauré une ligne de partage étanche entre la méthode de calibrage et les estimations économétriques au sein des modèles appliqués à la politique économique. D'un côté, s'est dessinée une orientation qui consiste en un calibrage ex ante au moyen de trai- tement des données en fonction de la grille théorique du modèle et un calibrage ex post. Dans ce contexte sont mises en oeuvre des méthodes d'estimation indirecte qui combinent des modèles descriptifs et des modèles théoriques. De l'autre côté, les modèles empiriques s'appuient sur une utilisation systématique des VAR ou des SVAR à des tests de causalité, d'exogénéité, ... dans l'étude tant des choix d'objectifs de politique monétaire (masse monétaire, PIB, taux de change, taux d'inflation) des canaux de transmission que des règles de comportement des banques centrales ou de l'interaction entre variables budgétaires et variables monétaires.
133
Degré du
contenu
théorique


DSGE
Calibrage

SVAR
VAR
Degré du contenu empirique
FiG. 1 — Rapports à la théorie des modèles appliqués.
Source :Pagan, 2003.

L'épreuve économétrique ne comporte pas, en somme, de menace sérieuse de remise en cause pas plus qu'elle n'entraîne des changements dans la structure de ces modèles lorsqu'elle porte à leur actif des tests positifs9. En revanche, le traitement conceptuel par l'intermédiaire de l'extension de la précision, de l'envergure et de la rigueur apparaît pré- gnant précisément dans la configuration de la nouvelle synthèse à partir de l'élargissement du champ de validité de la méthode de l'équilibre général dynamique (Taouil, 2011). Dans ce cadre, l'arbitrage entre constructions ne recourt pas à la comparaison de contenus empiriques. La faveur dont jouit une théorie semble découler d'un trade off qui repose, à l'image de la courbe de Philips, sur une relation inverse entre la capacité explicative et la portée observationnelle. Ce principe, pointé par N. Cartwight (1981), souligne qu'il existe en macroéconomie un hiatus entre celle-ci et celle-là. Une théorie a pour visée de formuler des
9 Parlant à ce sujet de divorce interne entre théorie et économétrie, P. Bridel (2005) dis-
tingueentre le progrès théorique qui tient à la clarification conceptuelle, aux innovations analytiques autant qu'au renforcement des vertus heuristiques, et le progrès empirique consécutif à l'amélioration du traitement des données et de la capacité observationnelle. Dans cette dynamique, « le conjoint théorique » a, souligne-t-il, la part belle.
134
lois générales qui n'offrent cependant pas des descriptions adéquates ainsi que l'attestent les hypothèses de rationalité de l'agent, de concurrence parfaite ou de complétude des marchés du modèle d'équilibre général d'Arrow-Debreu qui est le noyau dur de la macroéconomie dominante aujourd'hui. L'analyse empirique, elle, consiste à repérer des phénomènes par le truchement de procédures d'inférence statistique. La validité des énoncés est nécessairement contextuelle :elle dépend des relations établies par les modèles d'estimation. L'arbitrage dans ce contexte se fait au profit de la théorie. La consécration de l'impératif catégorique de micro-fondements issu de la critique de Lucas est à cet égard exemplaire.


CONCLUSION


Au total, l'épreuve empirique ne produit pas des énoncés fermes en mesure de participer à la validation des hypothèses ou des prédictions comme à la reconfiguration de la structure conceptuelle des modèles théoriques. L'unification de la macroéconomie, qu'incarne la nouvelle synthèse, s'est opérée grâce à une grille d'analyse dont les composantes essentielles, l'appréhension de l'équilibre général dans une optique dyna- mique, les mécanismes de formation des anticipations et l'intégration des perturbations exogènes ne doivent rien à la macro-économétrie, laquelle reste, au demeurant, traversée de divergences autour des méthodes des séries temporelles multivariées, des modèles de cointégration, du calibrage ou de l'estimation bayésienne. La multiplication des travaux en la matière n'est pas significative d'une prédominance de l'approche empirique :outre que les résultats observationnels ne participent pas à l'extension de l'envergure des modèles théoriques, ils reposent, quand ils s'adossent étroitement à ces derniers, sur une estimation des relations structurelles déduites des règles de décision optimales des agents.
Dans ce contexte la critique d'ordre empirique, largement formulée aujourd'hui à l'endroit de la stratégie DSGE, ne semble pas porter atteinte à la méthode de la nouvelle synthèse ni à ses propositions ana- lytiques, car elle se limite à invoquer la discordance entre les hypothèses conjointes d'anticipations rationnelles, d'agent représentatif et d'efficience
135
des marchés financiers et l'observation des dysfonctionnements provo- qués par la crise financière mondiale (Colander & al., 2008) ;Kirman, 2011)10. Une telle critique, souvent assortie de considérations en faveur du réalismell, est somme toute infructueuse. Ainsi, bien qu'ayant à leur actif des preuves issues de l'économie comportementale ou de tests éco- nométriques, les hypothèses d'anticipations adaptatives et de rationalité limitée n'ont pu ébranler celles d'anticipations rationnelles et de ratio- nalité instrumentale qui bénéficient d'un statut hégémonique en dépit des infirmations qu'elles ont subies. À l'opposé, la valeur d'envergure, qui mesure l'étendue de la capacité explicative, est à cet égard cruciale. Les paraboles d'anticipations rationnelles et d'agent représentatif restent largement consacrées du fait de leur force prédictive qui tient à l'inférence d'un nombre cumulatif de propositions fondamentales à l'aide de fictions rigoureusement identifiées. Les modèles d'agents multiples, parviennent à enrichir, à l'aide de simulations, la description des comportements adaptatifs, mais ne peuvent fournir des prédictions uniques tant elles diluent la question de la détermination des choix individuels dans une variété de configurations (Colander & al., 2009).
10 Comme l'atteste le numéro d'Oxford Review of Eronomic Policy, dédié au thème « Rebuilding Mactoeconomic Theoty» (2018), dix ans après la crise de 2008, des auteurs, qui se rattachent à la tradition de recherche macroéconomique dominante, procèdent à une réévaluation des modèles DSGE dans cette optique. Aussi, soulignent-ils, au nom du réalisme, les faiblesses empiriques consécutives à l'importance excessive accordée aux micro-fondements (J. Stiglitz), à l'efficience des marchés financiers (D. Vines et S Wills) et les limites des prescriptions de politique économique (O. Blanchard, P. Krugman).
11 H Nous avons, souligne A. Kirman, construit des modèles tellement éloignés de ce qu'une personne normale peut percevoir que nous en venons à nous demander s'il ne s'agit pas d'un exercice essentiellement abstrait et intellectuel. Nous avons une vision plus réaliste » (2011, p. 77).
136

BIBLIOGRAPHIE


ANGRIST, Joshua D. & PlscxxE, Jorn-Stefen [2010], «The Credibility Revolution in Empirical Economics :How Better Research Design Is Taking the Con out of Econometrics », The Journal of Economic Perspectives, Vol. 24, N° 2, p. 3-30.
ADO, Issa & DAVIDSON, Russel [1999], «Le rôle de l'économétrie» in LEROUX, Alain & MARCIANO, Alain (éd.), Traité de philosophie économique, Bruxelles, De Boeck.
BARBEROUSSE, Anouk & LUDWIG, Pascal [2000], «Les modèles comme fictions », Philosophie, N° 68, décembre, p. 16-43.
BLANCHARD, Olivier [2009], «L'état actuel de la macroéconomie », Revue française d'économie, Vol. 24, N° 1, p. 3-40.
BLANCHARD, Olivier [2018], « On the future of macroeconomic models », Oxford Review of Economic Policy, Vol. 34, N° 1-2, p. 43-54.
BRIDEL, Pascal [2005], « Cumulativité des connaissances et science économique, que cherche-t-on exactement à cumuler ? », Revue européenne des sciences sociales, Vol. XLIII, N° 131, p. 63-79.
CARTELIER, Jean [2017], «L'état de la science économique :vers une disparition de la théorie économique », La science dans tous ses états, Académie Hassan II des sciences et techniques, Rabat.
CARTWRIGHT, Nancy [1983], How the Law of Physics Lie, Oxford, The Clarendon Press.
CLARIDA, Richard H., GALI, JOrdl & GERTLER, Mark [1999], «The Science of Monetary Policy : A New Keynesian Perspective », Journal of Economic Literature, Vol. 37, N° 4, p. 1661-1707.
COLANDER, David, FOLLMER, HariS, HAA$, Armin, GOLDBERG, Michael, JUSELIUS, Katarina, KIRMAN, Alan, LUX, Thomas & SLOTH, Brigitte [2009], «The Financial Crisis and the Systemic Fallure of Academic Economics », Working Paper, N° 1489, Kiel, Kiel Institute for the World Economy.
CoLANDER, David, HoWITT, Peter, KIRMAN, Alan, LEIJONHFVUD, Axel & MEHRLING, Perry [2008], « Beyond DSGE Models : Toward an Empirically Based Ma.croeconomics », American Economic Review, Vol. 98, N° 2, p. 236-240.
Coox, Steven [2003] « A Kuhnian perspective of econometric methodology », Journal of Economic Methodology, Vol. 10, N° 1, p. 59-78.
DUFOUR, Jean-Marie [2000], «Économétrie, théorie des tests et philosophie des sciences », Cahier Recherche, N° 14, Université Montréal.
DuHEM, Pierre [1906], La théorie physique, son objet et sa structure, Paris, Vrin,1981.
137
ERICSSON, Neil S. &IRONS, John S. [1995], «The Lucas critique in practice Theory without measurement » in K.D. Hoover (éd.), Macroeconometricn Developmentn, Tensions, and Prospecta, Boston, KluwerAcademic Press.
FISCHER, Stanley [1996], «Robert Lucas's Nobel Memorial Prize », Scandinavian, journal of Economics, vol. 98, N° 1, p. 11-31.
FlToussl, Jean-Paul [1972], Inflation, équilibre et chômage, Paris, Cujas. FRIEDMAN, Milton [1968], «The Role of Monetary Policy », American Economic Review, vol. 58, N° 1, p. 1-17.
GOODFRIEND, Marvin &KING, Robert [1997], «The new neoclassica.l synthesis and the sole of monetary policy », in BERNANKE, B. & ROTEMBERG, J. (éd.), NBER Macroeconomica Annual, Cambridge (MA), The MIT Press.
HAMERMESH D. [2012], «Dix Decades of Top Economics Publishing :Who and How », Journal of Economic Litterature, vol. 80, N° 4, p. 162-172.
ILIOPiJLOS, Elerii & SoPRASEiJTH, Thepthida [2012], «L'intermédiation financière dans l'analyse macroéconomique : le défi de la crise », Économie etatatiatique, N°452-453-455, p. 91-130.
KAY, John [2011], «The map is sot the territory : An essay on the state of eonomics », Institute for New Economic Thinking Papes.
KEANE, Michael P. & RUNKLE, David E. [1990], «Testing the rationality of price forecasts : from panel data », American Economic Review, vol. 80, N°4, p. 714-735.
KIRMAN, Alan [2011], « La crise actuelle est aussi la crise de la théorie économique », in L'économie, une science qui nous gouverne, Paris, Actes Sud.
KRUGMAN, Paul [2018], « Good enough for government work ? Ma.croeconomics since the crisis », Oxford Review of Economic Policy, vol. 34, N° 1-2, p. 156-158.
LEVIN, Andrew T., NATALUCCI, Fabio M. &PIGER, Jeremy M. [2004], «The Macroeconomic Effects of Inflation Targeting », Federal Reserve Bank of St. Louis Review, vol. 86, N°4, p. 51-80.
LOVELL, Michael C. [1986], «Tests of rational expectations hypothesis », American Economic Review, vol. 76, p. 10-124.
LUCAs, Robert E. [1972], «Expectations and the Neutrality of Money »,Journal of Economic Theory, vol. 4, N° 2, p. 103-124.
Lucas, Robert E. [1976], «Econometric Policy Evaluation : A Critique », in BRUNNER, K. & MELTZER, A.H. (éd.) The Phillipa Curve and Labos Markets, Amsterdam, North-Holland.
LUCAS, Robert E. [1980], « Methods and Problems in Business Cycle Theory »,
Journal of Money, Credit and Banking, vol. 12, novembre, p. 217-238. Lucas, Robert E. [1987], Modela of Business Cycles. New York Basil Blackwell. Lucas, Robert E. [1987], «Adaptive behavior and economic theory », in
HOGARTH, R.M. & REDER, M.W. (éd.), Rational choice, The contrant between
Economics and Paychology, Chicago-Londres, University of Chicago Press.
138
MALINVAUD, Edmond [1997], «L'économétrie dans l'élaboration théorique et l'étude des politiques », L'actualité économique, vol. 73, N° 1-2-3, mars- juin-septembre, p. 11-25.
McxIBBIN, Warwick J. [1993], « Integrating Macroeconometricavd Multisector Computable General Equilibrium », Brookings Discussion Papen in International Economics, n° 100.
MEURIOT, Véronique. [2011], Une histoire des concepts des séries temporelles, Louvain-La-neuve, Academia.
NEUMANN, Manfred J. & HAGEN, Jurgen von [2002], « Does Inflation Targeting Matter ? » Federal Reserve Bank of St. Louis Review, vol. 84, N° 4, p. 127-148.
PAGAN, Adrian [2003], «Report on Modelling and Forecasting at the Bank of England », Bank of England Quaterly Bulletin, Printemps, 29 p.
PHILLIP$, Alban, W. [1958], «The Relation Between Unemployment and the Rate of Change of Money Wage Rates in the United Kingdom, 1861- 1957 », Economics, novembre, vol. 25, N° 100, p. 283-299.
PULIDO, Antonio [2002], « Posibilidades y limitaciones de las Matemâticas
en la Economla », Cuadernos del Fondo de Investigacidn Richard Stone, N° 1. RABANAL, Pau [2004], «Monetary Policy Rules and U.S. Business Cyle
Evidence and implications », IMF, working Paper, WP/04/164.
RUPHY, Stéphanie [2013], Pluralismes scientifiques, enjeux épistémologiques et métaphysiques, Paris, Hermann.
SCHETTKAT, Ronald [2010], «Faut-il un séisme pour réveiller le monde de
l'économie ? », Revue internationale du travail, vol. 149, N° 2, p. 201-227. Sol.ow, Robert & SAMUELSON, Paul [1960], «Analytical Aspects of Anti-
Inflation Policy » American Economic Review, vol. 50, N° 2, p. 177-194.
STIGLITZ, Joseph E. [2018], « Where modern macroeconomics avent wrong »,

Oxford Review of Economic Policy, vol. 34, N° 1-2, p. 70-106.
SUMMERS, Lawrence H. [1991], «The Scientific Illusion in Empirical Macro-
economics », Scandinavian Journal of Economics, vol. 93, N° 2, p. 129-148. TAOUIL, Rédouane [2011], « La nouvelle synthèse et la théorie des cycles réels »,
Économie appliquée, vol. 64, N° 1, janvier-mars, p. 75-102.
TAYLOR, John B. [1999a], «The Robustness and Efficiency of Monetary Policy Rules as Guidelines for Interest Rate Setting by the European Central Bank », Journal of Monetary Economics, vol. 43, N° 3, p. 655-579.
TAYLOR, John B. (éd.), [1999b], Monetary Policy Rules, Chicago, The University of Chicago Press.
TOW1vSEND, Robert M. [1988], « Models as Economies », The EconomicJournal, vol. 98, N° 390, Conference Papers, p. 1-24.
VINES, David. & WILLS, Samuel [2018], «The financial system and the natural real interest rate : towards a `new benchmark theory model' », Oxford Review of Economic Policy, vol. 34, Issue 1-2, p. 252-268.
139
WALLISER, Bernard [2011], Comment raisonnent les économistes ?Les fonctions des modèles, Paris, Odile Jacob, Économie.
WILBER, Charles K. [1979], «Empirical Verification and Theory Selection the Keynesian-Monetarist Debate », Journal of Economic Issues, vol. 13, N°4, p. 973-982.
WILLARD, Luke [2006], «Does Inflation Targeting Matter, A Reassessment »,
CEPS, Working paper n° 120, Princeton University, February. WOODFORD, Michael [2003], Interest and Prices : Foundations of a theory of
Monetary Policy, Princeton, Princeton University Press.
WOODFORD, Michael [2012], « What's wrong with economic models ? », Columbia University, mimeo.