Skip to content

Classiques Garnier

What is just a probability? From Laplace to Popper

  • Publication type: Journal article
  • Journal: Revue d’histoire de la pensée économique
    2017 – 1, n° 3
    . varia
  • Author: Bismans (Francis)
  • Abstract: The article studies the development of the concept of probability, from Laplace up to Popper. It presents the classical definition of probability and the “frequentist” conception formalised by R. von Mises. After, it discusses Keynes’ interpretation of probability and the different approaches to the subjective probability, of Ramsey, de Finetti and Savage. The axiomatization of probability calculus by Kolmogorov was a breakdown and drives to the probability-propensity of K. Popper.
  • Pages: 131 to 168
  • Journal: Journal of the History of Economic Thought
  • CLIL theme: 3340 -- SCIENCES ÉCONOMIQUES -- Histoire économique
  • EAN: 9782406069676
  • ISBN: 978-2-406-06967-6
  • ISSN: 2495-8670
  • DOI: 10.15122/isbn.978-2-406-06967-6.p.0131
  • Publisher: Classiques Garnier
  • Online publication: 06-09-2017
  • Periodicity: Biannual
  • Language: French
  • Keyword: Axiomatization, relative frequency, betting quotient, objective and subjective probabilities, conditional probability, propensity, expected utility
131

QUEST-CE, AU JUSTE,
QUUNE PROBABILITÉ ?

De Laplace à Popper

Francis Bismans

Université de Lorraine, BETA Research Associate, Nelson Mandela Metropolitan University
Port Elizabeth (South Africa)

INTRODUCTION1

Disons-le demblée : on sintéressera exclusivement, dans cet article, à la probabilité mathématique et à ses différentes interprétations. Bien sûr, il existe dautres voies dinvestigation du concept – philosophique par exemple, ce qui est la démarche empruntée par Cournot (1851, chapitre iv).

De même, il est possible daborder la probabilité dans sa relation avec le hasard – ici aussi Cournot (1851) constitue une bonne référence – ou encore avec la statistique mathématique. On peut aussi en faire une pièce essentielle de ce que plusieurs auteurs ont appelé la « querelle du déterminisme ».

Cependant, ce nest pas le chemin qui sera ici suivi, puisque, répétons-le, seules les interprétations du concept mathématique seront prises en considération.

132

Pour autant, même ainsi délimité, le champ de la recherche reste très vaste. Certes, on concédera aisément que létude ne doive pas remonter jusquà Aristote. À proprement parler, lorigine du calcul des probabilités peut être datée de 1654 exactement, lorsque Pascal et Fermat séchangèrent plusieurs lettres sur le problème des « partis » soulevé par le chevalier de Méré. Cependant, on aura beau parcourir ces lettres ou encore le traité « Des combinaisons » (Pascal 1665, p. 77-83), on ny trouvera pas le terme de probabilité lui-même.

Après Pascal, plusieurs mathématiciens – le plus important dentre eux est Huygens – continuèrent à étudier les jeux de hasard en utilisant loutil créé par lauteur des Pensées : la combinatoire. Parallèlement, tout au long du xviiie siècle, comme le signale Szafarz (1985), plusieurs savants, pas tous mathématiciens, ont produit des études démographiques et des tables de mortalité, qui ont permis de sortir du domaine étriqué et idéalisé des jeux de société.

Progressivement, lexpression de « chance » ou de « probabilité » en vint à désigner un nombre fractionnaire égal au nombre de cas favorables rapporté au nombre de cas possibles, sous la condition que ces derniers soient « équipossibles ». Cest ce concept quon désigne généralement sous le terme de « probabilité classique ». Un outil mathématique – lanalyse combinatoire – permet alors de mesurer, cest-à-dire de compter, dénombrer les cas favorables et les cas possibles.

Toutefois, une telle définition, appropriée pour les jeux de hasard, nétait daucune utilité pour les praticiens ou démographes dont on vient de parler : comment en effet dénombrer les « cas possibles », lorsquon sintéresse, par exemple, à la probabilité pour un homme de 40 ans de mourir dans les dix années à venir ? La probabilité pour ces praticiens est alors ce que lon appelle en termes modernes, une fréquence relative : ici, loccurrence du nombre de morts parmi les hommes de 40 ans durant la décennie future rapportée au nombre total de ces derniers.

Cest le mérite de Jacob (ou Jacques) Bernoulli davoir jeté un pont entre ces deux définitions en établissant une première forme de la loi dite des grands nombres – en fait, il sagit de la « loi faible » démontrée dans le cas particulier dun nombre fini dessais, caractérisés chacun par deux résultats seulement.

Tout au long du siècle des Lumières, de nombreux auteurs – Moivre, Euler, DAlembert, Lagrange, Buffon, Condorcet, pour nen citer que 133quelques-uns – sillustreront dans cette branche nouvelle du calcul des probabilités. Le nom de Bayes doit plus particulièrement être mis en avant, lui que lon peut créditer, comme la montré Stigler (1986, p. 123-124), de lintroduction du concept de probabilité conditionnelle.

Néanmoins il faudra attendre Laplace et son imposante Théorie analytique des probabilités pour quadvienne la grande synthèse qui dominera quasiment tout le dix-neuvième siècle. Schneider (1987, p. 190) parle même à ce sujet dun « paradigme » pour tout le siècle et pose la question : pourquoi et comment se fait-il que « Laplace ait détenu une telle position dominante » – de surcroît, pendant une période aussi longue ? On ne tentera pas de répondre à cette interrogation. On se contentera simplement de relever que le rôle éminent joué par Laplace dans le développement du calcul des probabilités justifie pleinement de commencer notre enquête historique par cet auteur. (Si lon considérait lhistoire de la statistique mathématique, il faudrait alors sarcbouter sur la « synthèse de Gauss-Laplace » – lexpression est de Stigler [1986, chapitre 4].)

On laissera donc dans lombre la « préhistoire » de la synthèse laplacienne, en renvoyant tous ceux qui voudraient en savoir plus sur la question aux ouvrages fondamentaux de Hacking (1975) et de Daston (1988).

Pour autant, se donner un point de départ ne dit pas encore comment la matière elle-même doit être développée et exposée. À cet égard, on voudra bien nous concéder deux présupposés, dont il nest pas difficile de démontrer le bien-fondé :

1. La formalisation de la théorie des probabilités va nécessairement de pair avec les progrès des mathématiques directement concernées – lanalyse en loccurrence ; en dautres termes, comment, par exemple, penser, au sens fort du terme, la loi de probabilité dune variable aléatoire absolument continue sans utiliser lintégrale de Riemann ou mieux, celle de Lebesgue ?

2. Il est commode de réduire les interprétations de la probabilité à deux grands ensembles : les conceptions subjective et objective. Bien sûr, cette distinction ne sest pas imposée demblée, mais on peut considérer quelle devient dominante dans les années vingt à quarante du siècle précédent. Elle se révèle éclairante 134pour qui veut organiser des développements historiques diffus, fragmentés, porteurs dallers et retours multiples, parsemés de ruptures et de contradictions.

Compte tenu de ces présupposés, larticle sera structuré comme suit. Une première section rendra compte de la synthèse opérée par Laplace. Elle montrera que chez cet auteur, même si la définition classique est dominante, il y avait aussi, au moins en germe, les premiers éléments dune conception fréquentiste de la probabilité, qui sera alors systématisée et axiomatisée par Richard von Mises. La section deux est tout entière consacrée à lexamen du grand ouvrage de Keynes, le Treatise on Probability, ainsi quà létude de sa postérité, en la personne notamment de H. Jeffreys et J. Hicks. La section suivante, après avoir introduit la distinction poppérienne entre probabilités subjectives et objectives, sattache à retracer plus particulièrement lémergence de la première à partir de la séquence chronologique Ramsey-de Finetti-Savage. Elle en propose aussi une critique à partir du « paradoxe dAllais ». La quatrième section décrit la « révolution théorique » opérée par Kolmogorov qui réalisa en 1933 une axiomatisation, féconde et durablement influente, de la théorie des probabilités. Dans la foulée, linterprétation – néo-objectiviste et « propensionniste » – de Popper est présentée ; elle sappuie en effet entièrement sur le formalisme de Kolmogorov. Une cinquième section est consacrée à la critique poppérienne du déterminisme scientifique et de la conception qui lui est liée, de la probabilité en tant que mesure de notre ignorance. Enfin, la dernière section conclut.

Un dernier mot, presque une excuse, avant de commencer : le fait que plusieurs économistes de talent, à commencer par Keynes, Allais et Hicks, aient joué un rôle notoire dans le développement des différentes interprétations de la probabilité, justifie amplement le léger biais « économiciste » qui transparaît de temps à autre dans cet article.

135

I. LAPPROCHE CLASSIQUE ET SES DÉVELOPPEMENTS

On énoncera la définition de la probabilité donnée par Laplace et on examinera ses liens avec linterprétation fréquentiste. On verra ensuite les développements, les raffinements de lapproche laplacienne, associés au nom de Richard von Mises, qui conduisent en réalité à une définition nouvelle, formalisée, de la probabilité.

LA SYNTHÈSE DE LAPLACE

Pierre-Simon Laplace publia en 1812 sa Théorie analytique des probabilités et une deuxième édition deux ans plus tard – cest cette dernière que lon utilisera. Le livre contenait par ailleurs une introduction qui résumait sans recourir aux mathématiques la partie analytique de louvrage. Cette introduction fera lobjet dune publication séparée sous le titre Essai philosophique sur les probabilités. La première édition de lEssai paraîtra en 1814 et la cinquième en 1825.

La construction laplacienne se présente comme une majestueuse cathédrale – si lon ose dire. Elle regorge de résultats nouveaux et utilise le meilleur des mathématiques de lépoque. On y trouve par exemple une première démonstration du théorème de la limite centrée, dans le cas particulier certes, mais important, où lon a affaire à une suite (infinie) dessais bernoulliens. Surtout, les applications couvrent quasiment la totalité des phénomènes physiques, sociaux et humains : les jeux de hasard bien sûr, mais aussi la philosophie naturelle, la mécanique céleste, les sciences morales, les tables de mortalité, les jugements des tribunaux, les bénéfices des établissements, telles sont quelques-uns des sujets détudes préférés de Laplace. Notre auteur formule même le vœu quon « traite léconomie politique, comme on a traité la physique, par la voie de lexpérience et de lanalyse », donc par le calcul des probabilités – cité dans Laplace (1825, p. 277).

LEssai débute par laffirmation très nette du déterminisme laplacien. Très rapidement cependant, Laplace (1825, p. 35) présente sa définition – qui deviendra classique – de la probabilité : « La théorie des hasards consiste à réduire tous les événements du même genre à un certain nombre de cas également possibles (…) et à déterminer le nombre de 136cas favorables à lévénement dont on cherche la probabilité. Le rapport de ce nombre à celui de tous les cas possibles est la mesure de cette probabilité (…) ».

En se servant du formalisme moderne, on considère une expérience aléatoire définie par léquipossibilité des résultats. Lunivers desdits résultats est lensemble des cas possibles : Un événement A est un sous-ensemble de Ω constitué des m événements élémentaires et désigne un cas favorable. La probabilité de A est alors le rapport :

(1)

où card X désigne le nombre déléments de X, ici de A ou de Ω.

Les limitations dune telle définition sont évidentes. Elles concernent tout particulièrement la fameuse restriction déquipossibilité des cas, qui revient en quelque sorte à supposer que ces cas sont tous également probables. Cette insuffisance – il y en a dautres ! – rend la définition inadéquate pour traiter de nombreuses applications de la théorie des probabilités.

Toutefois, Laplace (1825, p. 78) faisait également référence dans son Essai au théorème de Bernoulli – une première version de la loi faible des grands nombres ainsi quon la indiqué. Ce dernier avait en effet prouvé dans son Ars Conjectandi que si on considère la suite de variables aléatoires indépendantes prenant la valeur 1 avec probabilité et la valeur 0 avec probabilité (1-), alors plus est grand et plus la fréquence relative, cest-à-dire le nombre doccurrences de 1 rapporté au nombre dessais, est proche de .

Laplace généralise ce théorème sous deux aspects : dune part, il prend en considération des variables aléatoires – pour utiliser un langage moderne2 – qui revêtent plus de deux valeurs ; dautre part, il simplifie la démonstration en utilisant la méthode des fonctions génératrices. (Sur cette méthode, voir Laplace [1814, p. 80 et sq.] ; de nos jours, on 137peut donner une démonstration élémentaire de la loi faible des grands nombres en appliquant linégalité de Bienaymé-Tchebychev, comme par exemple dans Bismans [2016]).

Toujours est-il que la loi faible des grands nombres conduit presque automatiquement à assimiler probabilité classique et fréquence relative observée au cours dune suite dessais. On peut en conséquence créditer Laplace dêtre véritablement le grand ancêtre de la probabilité « fréquentiste ».

Cela dit, lévolution ultérieure de lapproche consistera à se débarrasser de la définition classique – de plus en plus perçue comme insuffisante – et à assimiler purement et simplement la probabilité à la valeur limite dune fréquence relative sur une suite dessais indéfiniment répétés. À cet égard, un nom doit être cité en premier lieu : Richard von Mises.

LA DÉFINITION FRÉQUENTISTE

Richard était le frère de léconomiste libéral Ludwig von Mises. Il fut reçu docteur de luniversité de Vienne en 1908, où il avait étudié les mathématiques, la physique et les sciences de lingénieur. Il sera nommé professeur de mathématiques appliquées à luniversité de Strasbourg lannée suivante tout en restant un membre actif du « Cercle de Vienne ».

Il est le premier à avoir présenté, en 1919, une axiomatisation de la probabilité – voir von Mises (1919, 1957, 1981). Notre auteur se donne comme objectif de traduire en termes mathématiques le point de vue selon lequel la probabilité est mesurée comme une fréquence relative sur une longue suite dessais.

Pour ce faire, il introduit dabord le concept de collectif (Kollektiv en allemand) : « Nous ne parlerons pas de probabilité tant quun collectif na pas été défini » (von Mises, 1957, p. 18). Informellement, un collectif est une suite dobservations dun même événement qui satisfait deux axiomes : (i) la fréquence relative de loccurrence de cet événement admet une limite (pour cette raison, on peut le nommer axiome de convergence) ; (ii) cette limite nest pas modifiée lorsquon substitue à la suite initiale une sous-suite quelconque sélectionnée de manière appropriée.

Toute la difficulté de construction dun collectif tient en fait dans la sélection des sous-suites en question. Von Mises – voir également 138Szafarz (1984) – a lui-même donné un exemple dune suite qui satisfait le premier axiome, mais non le second. Le voici. Considérons une très longue route pourvue de bornes, de grande taille tous les kilomètres et de petite taille tous les cent mètres. Intéressons-nous ensuite à la fréquence relative de lapparition des grandes bornes. La suite complète admet évidemment la limite 1/10. Par contre, la sous-suite constituée par la sélection dune borne sur deux admet la limite 1/5. En conséquence, le second axiome est violé.

Pour sortir de cette difficulté, von Mises a précisé que la sélection des sous-suites devait sopérer en supprimant des termes de la suite initiale exclusivement en fonction des termes antérieurs. Un exemple simple permet dillustrer la procédure. Considérons la suite :

En conservant les deux premiers termes de cette suite et puis en sélectionnant un terme subséquent sur deux, on obtient la sous-suite qui satisfait le critère de sélection imposé.

Compte tenu de cette précision, on peut formellement réécrire comme suit laxiomatique de von Mises. Soit un ensemble fini

et lapplication définie sur lensemble des entiers naturels hors le zéro et à valeurs dans :

Lapplication est ensuite astreinte à suivre la propriété suivante : si on pose

(2)

désigne le cardinal de lensemble considéré,

alors

(3)

Par conséquent, la probabilité est la limite de la fréquence relative de parmi les premiers termes de la suite. Laxiome 1 de convergence est ainsi satisfait.

139

Pour que laxiome 2 – on le qualifiera désormais daxiome du hasard ou de stochasticité – soit également vérifié, il faut ajouter la condition supplémentaire que la propriété (3) doit être rencontrée pour toute sous-suite extraite en supprimant des termes de la suite initiale en fonction des seuls termes antérieurs.

De prime abord, il ny a rien à redire a priori à cette formalisation, sauf quelle sapplique aussi à des suites qui nont rien de probabiliste ou qui sont parfaitement prédictibles. Toute la question réside en effet dans le choix de sous-suites réellement aléatoires – plus exactement « quasi-aléatoires », car lon sait depuis pas mal de temps déjà que le hasard ne simite pas. Cest ce quaffirmait déjà Borel (1939, p. 82), « il nest pas possible à lesprit humain dimiter parfaitement le hasard, cest-à-dire de substituer un mécanisme rationnel quelconque à la méthode empirique qui consiste à effectuer une suite indéfinie dépreuves répétées, de parties de pile ou face par exemple ».

CRITIQUES DE LA CONCEPTION FRÉQUENTISTE

Lapproche de von Mises est critiquable à deux points de vue au moins : sa cohérence interne dune part ; son incapacité à traiter les probabilités dévénements « isolés », singuliers, dautre part.

En ce qui concerne la première critique, plusieurs auteurs – Copeland et Wald, notamment – ont montré que laxiome de stochasticité nétait pas cohérent (consistant) dun point de vue logique. En bref, le problème réside – on la déjà effleuré – dans la construction de suites réellement aléatoires. Copeland et Wald ont ainsi démontré quil nexiste quun système dénombrable de règles de choix, ce qui contredit la propriété (3) qui doit être satisfaite chez von Mises pour toute sous-suite extraite en supprimant des termes en fonction des seuls termes initiaux retenus. On peut certes reformuler laxiome en question de manière à le rendre logiquement cohérent, mais on perd alors la compréhension intuitive qui caractérisait la démarche première de von Mises. De plus, comme le souligne Breny (1975, p. 20), la théorie, même ainsi corrigée, est insuffisante pour décrire, par exemple, lévolution dune épidémie, au cours de laquelle la probabilité de contamination varie avec le temps.

La critique de Popper est plus générale encore. Celui-ci part essentiellement de lapproche de von Mises tout en rejetant ses deux axiomes 140de convergence et de stochasticité. La manière dont il sy prend est fort technique. Disons simplement quil tente de reconstruire une théorie fréquentiste – Popper (1980, p. 154 et sq.) – qui reformule, « améliore » selon son expression, laxiome de stochasticité et qui élimine complètement celui de convergence. Pour autant, notre auteur nétait pas lui-même convaincu du bien-fondé de sa reconstruction : Popper (1980, p. 147, note*1) signale, en effet, que depuis 1934 (date de la parution de la première édition allemande de la Forschung), il avait modifié de trois manières sa théorie de la probabilité : en particulier, affirmait-il,

jai remplacé linterprétation objective de la probabilité en termes de fréquence par une autre interprétation objective – la « propensity interpretation » – et remplacé le calcul des fréquences par le formalisme néo-classique (ou de la théorie de la mesure).

Lobjection la plus répandue à légard de la théorie fréquentiste est aisée à formuler : elle ne sapplique quà des événements répétés à lidentique et en conséquence, elle est inapte à rendre compte dévénements singuliers ou isolés – « uniques » pourrait-on dire. Un bon représentant de cette tendance critique – il en existe bien dautres ! – est Savage (1954b), qui écrit : « dun point de vue objectiviste, les probabilités ne peuvent sappliquer fructueusement quà des événements répétitifs, cest-à-dire à certains processus seulement ».

Cest Reichenbach (1937, p. 314 et sq.) – dans un gros article (plus de 80 pages !) qui est en fait un résumé de Reichenbach (1935) – qui, parmi les fréquentistes de lépoque, a tenté de réfuter le plus vigoureusement la critique émise à partir du « cas isolé ». Sa thèse est radicale : « Le terme “probable” admet toujours une interprétation dans le sens dune fréquence, même si lindividu qui emploie le mot nous assure quil na pas pensé à une fréquence. Cest ce que jappelle la “toute-puissance” de linterprétation de la fréquence ». Et lauteur de prendre lexemple de la probabilité que Jules César ait visité lAngleterre. Il sagit évidemment dun « cas isolé ». Cependant, lhistorien qui sattache à déterminer cette probabilité va inclure cet exemple dans la classe des événements semblables et en conséquence, cest donc une statistique qui le conduit à la probabilité cherchée. Évidemment, il est facile de rétorquer que la classe en question est si peu fournie, que la notion de fréquence ny a tout simplement plus aucun sens ! Certes, lexemple choisi par Reichenbach nest pas celui qui 141est le plus favorable à sa thèse. Il nempêche que la cause nous paraît entendue et que le problème du fameux « cas isolé » ne peut, en général, être résolu adéquatement dans le cadre de la problématique fréquentiste.

Au total, il est donc légitime, cest aussi lopinion de Szafarz (1984), de parler déchec, au moins relatif, de laxiomatique misessienne tout en noubliant pas ses mérites et surtout, le fait quelle permettait de traiter, de manière satisfaisante, nombre de phénomènes aléatoires répétitifs !

I. LE PROBABLE COMME RELATION LOGIQUE

John Maynard Keynes est certes lauteur de la General Theory, mais aussi dun Treatise on Probability, paru en 1921, qui développe une interprétation originale connue sous le nom de « probabilité logique ».

LA RELATION DE PROBABILITÉ

Keynes se place demblée dans le sillage de Leibniz en reproduisant en exergue de son livre une citation – en vieux français ! – de ce dernier : « Jai dit plus dune fois quil faudrait une nouvelle espèce de logique, qui traiteroit des degrés de Probabilité ». Concevoir la théorie des probabilités comme une branche de la logique résume lapproche de léconomiste de Cambridge. Certes, il consacre tout un chapitre de son Treatise, le chapitre viii, à lexposé et à la critique de la conception fréquentiste de la probabilité. Mais à cette interprétation (frequency theory), il substitue celle de la probabilité comme relation logique entre des propositions ou énoncés.

Son apport essentiel consiste, dans ses propres termes, « à discuter de la vérité et de la probabilité de propositions à la place de loccurrence et de la probabilité dévénements » (Keynes, 1921, p. 5).

Si lon dispose de prémisses constituées par un ensemble de propositions et dune conclusion formée par un corps de propositions , on dira quil existe une relation de probabilité de degré entre et si implique au degré . Formellement, on peut noter, à la suite de Keynes, cette probabilité de la manière suivante :

(4)

142

La relation présente deux cas extrêmes : si peut être déduit de , alors et si est la contradictoire de , alors Tous les autres cas se situent entre ces deux opposés et peuvent recevoir une interprétation intuitive : la probabilité de la proposition (étant donné ) est dautant plus proche de lunité que le contenu de ajoute moins à celui de ou encore la probabilité de mesure le degré de vérité de contenu dans la proposition .

Puisque la probabilité mesure lintensité de la confiance dans la relation logique entre deux propositions ou deux ensembles de propositions, elle a un côté essentiellement subjectif, variable en fonction de chaque individu amené à rendre un jugement de probabilité. Cest pour cette raison que Keynes (1921) parle dun « degré de croyance », mais ce degré est rationnel (rational belief) : il nest donc pas arbitraire, mais repose ou sappuie sur la force du lien logique entre les propositions examinées. Keynes (1921, p. 4) admet le caractère subjectif de son approche, mais, ajoute-t-il, « une fois que les faits qui déterminent notre connaissance sont donnés, le probable ou limprobable dans ces circonstances a été fixé objectivement ». (À vrai dire, cette argumentation nest pas convaincante, car elle revient à réaffirmer la rationalité des degrés de croyance – sans plus.)

Au total, la probabilité est donc le degré de confiance rationnelle quune personne ou un individu peut accorder à la proposition q sur base de linformation contenue dans p.

Keynes peut alors utiliser la probabilité ainsi définie pour « logiciser symboliquement » dans la partie II du Treatise, les principaux théorèmes de la théorie des probabilités, un peu à la manière de Russel et de Whitehead qui dans leurs Principia Mathematica, avaient tenté de déduire la totalité des mathématiques de leur temps à partir dun nombre réduit daxiomes et de définitions.

Cette partie II a fait lobjet de plusieurs critiques. Ainsi Borel (1924, p. 135-136) dans sa recension du Treatise peut-il écrire que les mathématiciens néprouvent pas « le besoin de créer (…) des difficultés artificielles, en renonçant aux ressources de la langue vulgaire et en la remplaçant par un symbolisme hiéroglyphique ; ce symbolisme na jusquici conduit à aucune découverte proprement mathématique ». Évidemment, cette appréciation sévère – trop sévère – de Borel sexplique par le « réalisme » que le grand mathématicien a toujours manifesté.

143

Parallèlement, plusieurs auteurs ont détecté des erreurs ou des déficiences dans lécriture logique des énoncés de probabilité opérée par Keynes. Ainsi Braithwaite (1973, p. xvi-xvii), dans sa présentation éditoriale du Treatise publiée dans les Collected Writings de Keynes, tome 8, relève que « le développement axiomatique des théorèmes du calcul des probabilités présente de sérieux défauts formels ».

PROBABILITÉ ET MESURE

Il est difficile de donner une valeur numérique à la probabilité définie par Keynes. Comment en effet comparer des probabilités entre des propositions qui nont pas déléments communs ? Par exemple, comment pourrait-on évaluer les valeurs logiques des deux énoncés suivants : « le taux dintérêt sera de 5 % étant donné telle forme de la courbe de préférence pour la liquidité » et « les nageurs ne parviendront pas jusquà la côte par suite de la présence de requins » ?

Keynes (1921, p. 21) en était bien conscient qui écrivait : « On a supposé jusquici comme évident que la probabilité est, dans le sens plein et littéral du mot, mesurable. Je devrais limiter, non étendre la doctrine populaire ».

Plus précisément, notre auteur distingue parmi lensemble des degrés de croyance trois sous-ensembles (Keynes, 1921, p. 41-43) :

1. le sous-ensemble des probabilités numériques ;

2. le sous-ensemble des probabilités comparables ordinalement, mais non représentables numériquement ;

3. le sous-ensemble des probabilités non comparables.

Pour expliciter cette typologie, précisons que des probabilités sont comparables dans deux cas essentiellement : 1) lorsquon compare la probabilité de deux conclusions sur base dune même donnée, soit et 2) quand on cherche linfluence dun changement des données sur la vraisemblance dune même conclusion, soit et Sur lensemble des propositions comparables, on peut alors définir une relation « est plus probable ou aussi probable que ». Cette relation « justifie les comparaisons de plus et de moins entre les probabilités quil est impossible de mesurer numériquement, théoriquement autant que pratiquement » (Keynes, 1921, p. 70). (En fait, cette dernière formulation est inexacte : 144Debreu, par exemple, a montré quune relation constituant un préordre total peut être représentée par une fonction continue, à valeurs réelles, sur lensemble préordonné par la relation considérée, moyennant une hypothèse additionnelle de continuité.)

À ce stade, la question surgit de savoir quand deux énoncés peuvent être considérés comme équiprobables. Pour répondre à cette question, Keynes introduit le principe dindifférence, qui est un décalque de celui de raison insuffisante attribué à Bernoulli, à savoir : légalité entre deux probabilités na de sens que pour les énoncés de la forme et cest-à-dire pour des conclusions fondées sur une même donnée .

Dès lors, dans lensemble des probabilités comparables, seules pourront faire lobjet dun calcul celles auxquelles on peut appliquer le principe dindifférence.

Enfin, subsiste le vaste domaine des conclusions pour lesquelles la relation « plus ou aussi probable que » nest pas applicable. Reste alors ce jugement de Keynes (1921, p. 41) : « il est toujours vrai de dire dun degré de probabilité quil nest pas identique soit avec limpossibilité soit avec la certitude, quil se trouve entre les deux (…) ». En dautres termes, tout ce que lon peut affirmer, cest que la probabilité en question se trouve « quelque part » entre le certain et limpossible.

On pourrait montrer, mais la place manque pour le faire, que la non-mesurabilité de la probabilité et limpossibilité corrélative dun calcul prévisionnel fondé sur lespérance mathématique, courent comme un fil rouge dans les analyses de la Théorie générale. Sans parler du fameux article du Quarterly Journal of Economics, dans lequel Keynes (1937, p. 114, 116) écrit explicitement : « (…) il ny a pas de base scientifique pour former quelque probabilité calculable que ce soit. Nous ne savons tout simplement pas. (…) Jaccuse la théorie classique (…) de traiter le présent en faisant abstraction du fait que nous savons très peu sur le futur. »

KEYNES ET SA POSTÉRITÉ

De Finetti (1985, p. 359, 362) a fait la remarque que la non-mesurabilité de la probabilité chez Keynes nétait pas adaptée au « développement de la théorie mathématique des probabilités » et quelle le plaçait de ce fait hors du courant dominant (mainstream). Indubitablement, le jugement de Finetti est correct. Il explique pourquoi louvrage de léconomiste de Cambridge, malgré des comptes rendus globalement 145positifs, comme celui de Borel (1924), a été, dans une large mesure, ignoré par la postérité.

Il faut citer néanmoins parmi ceux qui se sont placés dans le sillage de Keynes, Harold Jeffreys, de Cambridge lui aussi, et John Hicks. La tentative du premier daxiomatiser la logique du probable se veut – et est – plus rigoureuse que celle de Keynes. Sans entrer dans les détails, disons simplement quil considère à nouveau la probabilité comme un « degré de confiance », mais il adopte un système daxiomes et de conventions qui lui permet de conclure à la mesurabilité de la probabilité. Dans ses propres termes (voir Jeffreys, 1939, 1948, p. 24), il obtient le résultat :

Théorème 8. Toute probabilité peut être exprimée par un nombre réel.

Là réside la différence essentielle entre les deux auteurs, qui partagent, pour le reste, une même approche logique de la relation de probabilité.

John Hicks (1979, p. 114), pour sa part, discute les axiomes de Jeffreys ; il substitue au premier dentre eux la formulation suivante : sur base des données, soit la proposition A est plus probable que B, soit B est plus que probable que A, soit elles sont également probables, soit elles ne sont pas comparables. Dès lors, Hicks en revient explicitement au schéma de Keynes, rappelé plus haut, en distinguant trois classes parmi les degrés de croyance : les probabilités numériques, les probabilités comparables, mais non exprimables par un nombre, et enfin celles qui ne sont même pas comparables. Hicks (1979, p. 115 n. 19) adopte le diagramme de Venn suivant pour illustrer sa vision des trois classes probabilistes :

Fig. 1

146

A représente lensemble des probabilités numériques ; B celui des probabilités qui constituent un ordre (en fait, un préordre) et C celui des probabilités non comparables. Cependant, même dans ce dernier cas, Hicks maintient que des jugements de probabilité peuvent parfois être formulés.

De plus, le prix Nobel affirme également que le champ de léconomie proprement dite – sous langle de la probabilité évidemment – est caractérisé par un ensemble (en grisé sur la figure 1), qui a une intersection non vide avec chacun des trois sous-ensembles distingués.

III. LE DÉVELOPPEMENT
DE LA PROBABILITÉ SUBJECTIVE

On commencera par analyser la distinction « poppérienne » entre probabilité subjective et objective telle quelle sexprime dans la Logique de la découverte scientifique, avant denvisager le développement de la probabilité proprement subjective réalisé par Ramsey, de Finetti et plus près de nous, Savage.

OBJECTIVISME ET SUBJECTIVISTE

Il sen faut de beaucoup que la distinction entre probabilités objective et subjective soit bien établie dès les débuts du calcul des probabilités – on sen est expliqué dans lintroduction à cet article. Elle ne létait même pas chez les plus grands probabilistes. Par exemple, Laplace (1825, p. 36-37) emploie les termes de « degré de croyance » ou de « degré de vraisemblance », alors même quil expose sa définition – classique – de la probabilité. Qui plus est, pour un déterministe tel que lui, la probabilité est une « mesure de notre ignorance » – une notion subjective sil en est ! Dailleurs, si les cas à considérer dans la fameuse définition sont également possibles, cest tout simplement parce que nous – donc individuellement – ne voyons aucune raison de les distinguer : cest le fameux « principe de labsence de raison suffisante », déjà évoqué. On peut donc à bon droit soutenir que Laplace juxtapose les deux approches de la probabilité.

147

À vrai dire, cest Popper qui doit être crédité davoir été le premier à systématiser la différenciation conceptuelle entre probabilités objective et subjective, lui donnant ainsi ses lettres de noblesse. Il faut cependant admettre que la distinction était dans lair du temps, en ces années trente, particulièrement dramatiques et troublées, pleines de bruit et de fureur. Pour preuve de cette assertion, il suffira de citer Borel (1939, p. 70-71), affirmant bien fort « quil fallait insister (…) sur le caractère subjectif de la probabilité, caractère connu depuis fort longtemps (…) ».

Cela étant, dans sa Logik der Forschung, Popper (1934, 1980, p. 148 et sq.) distingue trois grandes interprétations possibles du concept : la première est subjectiviste et psychologiste aussi, en ce sens quelle « traite le degré de probabilité comme une mesure des sentiments de certitude ou dincertitude, de croyance ou de doute, que peuvent faire naître en nous certaines assertions ou conjectures » ; la deuxième est linterprétation keynésienne de la probabilité comme relation logique entre des énoncés, dont Popper dit quelle nest quune variante de linterprétation subjective, puisquelle sappuie sur des « degrés de croyance rationnelle » – on a déjà abordé cette question supra dans cet article.

Enfin, il y a linterprétation objective de la probabilité pour laquelle tout énoncé de probabilité numérique indique « la fréquence relative à laquelle un événement dun certain type (…) se produit dans une suite doccurrences ».

Notre auteur se range, pour sa part, dans le camp des « objectivistes », mais, comme on la vu en détails, il a tenté dans la Logik der Forschung de reconstruire la théorie de la probabilité comme une « théorie fréquentielle modifiée ».

Au total, la distinction entre les approches objective et subjective de la probabilité est non seulement commode, mais aussi éclairante. Le moment est maintenant venu dexaminer le développement de la branche subjectiviste.

LA PROBABILITÉ SUBJECTIVE :
DE RAMSEY ET DE DE FINETTI…

On peut toujours remonter dans le passé et trouver des précurseurs à toute idée. Pour ce qui concerne la probabilité subjective, le nom qui vient à lesprit est celui de John Venn (1888), dont The Logic of Chance comporte un chapitre 6 consacré au « côté subjectif de la probabilité ». 148(Ce chapitre intitulé Degree of belief est partiellement reproduit dans louvrage de Kyburg & Smokler (1964), ouvrage qui contient plusieurs textes essentiels émanant du courant subjectiviste.)

Toutefois, le véritable début de cette approche de la probabilité remonte à lannée 1926, date de la rédaction de Truth and Probability par Ramsey. (Cet essai de 1926 ne sera publié quaprès sa mort, soit en 1931).

Frank Plumpton Ramsey est donc décédé très jeune, à 26 ans. Il était un Fellow de Cambridge, où il côtoyait J.M. Keynes. Il sintéressait tout spécialement aux problèmes de la logique mathématique. Il est également lauteur de deux articles déconomie bien connus, dont le fameux : « A Mathematical Theory of Saving ».

Ramsey (1926, p. 56 et sq.) part dune critique du degré de croyance keynésien pour construire une véritable « logique des croyances partielles ». Il rejette lidée du premier, de la probabilité comme degré de connaissance logique. Il propose plutôt de mesurer ce degré par un coefficient ou quotient de pari (« betting quotient ») : le degré de croyance dans une proposition de la part dun homme à un moment déterminé est mesuré par le taux pour lequel cet homme est prêt à parier que p est vraie. Autrement dit, une croyance de degré indique que lhomme en question est prêt à payer une proportion dune unité de valeur, pas plus, pour avoir droit à une unité de valeur si p est vraie et à rien si est faux.

Par ailleurs, Ramsey avait bien vu que la détermination des degrés de croyance devait aller de pair avec lestimation de lutilité du coefficient de pari3 pour lindividu considéré. Par exemple, je peux parier 50 euros pour en recevoir 100, mais je ne serai certainement pas daccord de parier 100 000 euros pour en recevoir 200 000. Autrement dit, lutilité marginale de la monnaie nest pas constante et ne peut être représentée par une fonction linéaire.

Le deuxième nom important à citer est celui de de Finetti (1937, p. 3), qui se définit lui-même comme un subjectiviste : « Le point de vue que jai lhonneur dexposer ici peut être considéré comme la solution extrême du côté du subjectivisme ». Dans de Finetti (1973, p. x), il écrit dailleurs, en lettres capitales et de manière quelque peu provocatrice : « La probabilité nexiste pas. »

149

Quoi quil en soit, dans ses conférences à lInstitut Henri Poincaré, en 1937, notre auteur commence par définir une logique du probable. Il part en fait dun ensemble daxiomes qualitatifs au nombre de quatre : (A1) un événement incertain ne peut paraître que sil est, soit aussi probable, soit plus probable, soit moins probable quun autre événement ; (A2) un événement incertain semble – ce terme est important dun point de vue subjectiviste – toujours plus probable quun événement impossible et moins probable quun événement certain ; (A3) un axiome de transitivité ; (A4) les inégalités se conservent dans les sommes logiques : si E est un événement incompatible avec et alors est plus probable, moins probable ou aussi probable que si est plus probable, moins probable ou aussi probable que

De Finetti (1937, p. 5 et sq.) montre alors en sappuyant sur ce système daxiomes, quil existe une mesure quantitative de la probabilité ainsi que de la probabilité conditionnelle – moyennant un axiome supplémentaire. Cependant, il relève que lon peut également parvenir à une définition quantitative directe de la probabilité en précisant « lidée banale et évidente que le degré de probabilité attribué par un individu à un événement donné est révélé dans les conditions dans lesquelles il serait disposé à parier sur cet événement ». De Finetti préfère in fine la seconde manière de procéder, rejoignant ainsi Ramsey.

Dès lors, si un individu évalue le prix pour lequel il serait prêt à accepter léchange dune somme quelconque S, subordonnée à loccurrence dun événement déterminé E, contre la somme S, alors on dira que est la mesure du degré de probabilité que cet individu attribue à E.

Cependant, lorsquune personne a évalué les probabilités dun ensemble dévénements, deux cas peuvent se présenter : soit il est possible de parier sur elles en sassurant de gagner à tous les coups, soit cette possibilité nexiste pas. Dans le premier cas, les probabilités évaluées par cette personne sont intrinsèquement contradictoires ; dans le second par contre, la personne en question est cohérente. De Finetti (1937, p. 7) conclut que « cest précisément cette condition de cohérence qui constitue le seul principe doù lon puisse déduire tout le calcul des probabilités ».

150

… À SAVAGE

Venons-en à présent au troisième grand théoricien de la probabilité subjective : Jimmie Savage, auteur du livre The Foundations of Statistics, ouvrage qui a eu un très grand retentissement chez les statisticiens. (Savage parle, pour sa part, de « probabilité personnelle » plutôt que subjective, mais cest une pure question de sémantique.)

Savage (1954b) propose en fait « une théorie du comportement cohérent en situation dincertitude ». Plus précisément, soit un ensemble S détats du monde avec leurs probabilités associées (subjectives bien sûr, donc obtenues par pari) et un ensemble F de conséquences. Une action est une application arbitraire de S dans F, associant une conséquence à chaque état du monde. On définit ensuite un préordre total sur lensemble des actions par la relation « nest pas préféré à ». Ce préordre – la relation en question est réflexive et transitive – peut être représenté par une fonction numérique, lutilité, unique à une transformation linéaire près, et qui permet dassocier un nombre U(f) à chaque conséquence Lindividu choisira alors laction qui maximise lespérance mathématique – dans le sens où ce terme est habituellement utilisé en théorie des probabilités – de lutilité. Plus formellement, pour toutes actions f et g de F, f est préférée à g si et seulement si

(5)

où lutilité espérée de f est définie par

(6)

La définition en question est, bien entendu, similaire pour gmutatis mutandis.

Si lon substitue « somme de monnaie » à conséquence, on retrouve bien les idées essentielles de Ramsey. À cet égard, Savage (1954b, p. 279) écrit dailleurs explicitement que « les concepts de probabilité et dutilité de Ramsey sont exactement les mêmes que ceux présentés dans ce livre », mais il ajoute, pour définir lapport spécifique de ce dernier : « ses définitions de la probabilité et de lutilité sont simultanées et interdépendantes ».

Subsiste néanmoins une question : comment rendre lutilité numérique, autrement dit, comment déterminer la fonction U(.) dans (5) et (6) ? La réponse avait été donnée par Luce et Raiffa (1957, p. 304), dans 151un ouvrage qui fit époque : « la contribution de Savage (…) est une synthèse de lapproche de lutilité de Von Neumann-Morgenstern à la prise de décision et du calcul de la probabilité subjective de de Finetti ». Donnons donc quelques précisions sur cette théorie de lutilité.

Jusquà la parution de la Theory of Games and Economic Behavior (1944) de von Neumann-Morgenstern, les économistes partageaient la conception ordinale de lutilité, initialement proposée par Pareto. Lapport des deux auteurs a été de « cardinaliser » lutilité, un peu comme pour la température, cest-à-dire moyennant fixation du zéro et de lunité – en termes plus mathématiques, une telle mesure est définie à une application linéaire près, on la déjà précisé. Pour y parvenir, von Neumann et Morgenstern (1953, p. 18-19) introduisent les probabilités de la manière suivante. Considérons trois événements A, B et C tels que et un nombre réel compris entre 0 et 1. Si lévénement certain A est exactement aussi « désirable » que lévènement composé alors la probabilité constitue une évaluation numérique du degré de préférence de A sur B rapporté au degré de préférence de C sur B. Telle est lidée essentielle des deux auteurs, le reste est une question daxiomatisation (voir sur ce point, von Neumann-Morgenstern (1953, appendix, p. 617-632). Précisons cependant que leur conception de la probabilité était objective, « une fréquence de long terme » (frequency in the long run) dans leurs propres mots.

Savage connaissait bien laxiomatisation de von Neumann-Morgenstern et il avait dailleurs écrit, en collaboration avec Friedman, deux articles sur la question de lutilité – voir Friedman et Savage (1948, 1952). Son apport propre a été de substituer les probabilités subjectives aux fréquences neumanniennes et dinsérer le tout dans une théorie du comportement de lindividu rationnel face au risque. (Précisons cependant quil nadmet pas la cardinalité de lutilité ainsi définie, mais cest un autre débat.)

CRITIQUES, DONT CELLE DALLAIS,
DE LAPPROCHE SUBJECTIVE

Voyons dabord la version Ramsey-de Finetti de la probabilité subjective. Les objections quon peut lui adresser, ne portent pas sur sa logique interne : la théorie est cohérente et correcte dun point de vue formel. Par contre, son application soulève au moins deux types de problèmes :

152

1. La probabilité subjective ne peut pas être confrontée à lexpérience, car comme le dit de Finetti (1937, p. 18), « un événement quelconque ne peut quarriver ou ne pas arriver, et ni dans un sens ni dans lautre, on ne peut décider quel était le degré de doute avec lequel il était “raisonnable” ou “juste” de latteindre avant de savoir sil était réalisé ou non. » Cest évidemment gênant dun point de vue scientifique.

2. Une théorie subjective est impuissante à rendre compte de nombre dobservations du monde physique, notamment des régularités statistiques caractéristiques des phénomènes aléatoires telles quon peut les observer par exemple en mécanique statistique. (Rappelons la phrase, déjà citée, de de Finetti [1973] : la probabilité nexiste pas !)

En ce qui concerne la théorisation de Savage, il faut dabord remarquer quelle ne fait pas lunanimité chez les subjectivistes. De Finetti (1957, p. 7), en particulier, a émis à son encontre des réserves certaines :

Jhésite à suivre Savage dans cette direction (lunification de la théorie de la probabilité et de lutilité dans la théorie de la décision) ; ces concepts ont en effet, par rapport à ma manière de voir, des « valeurs » différentes : une valeur indiscutable dans le cas de la probabilité, une valeur assez incertaine dans le cas de lutilité et des conditions de rationalité pour un comportement en situation de risque.

En termes voilés, mais néanmoins suffisamment clairs, de Finetti doute donc de la valeur du critère de maximisation de lutilité espérée comme règle comportementale rationnelle en incertitude. Sans doute aussi lui préfère-t-il le critère plus simple de lespérance de gain monétaire.

Maurice Allais, dans son grand article de 1953 publié, en français, dans Econometrica, sen prend rien moins quà « lécole américaine » dans son ensemble, par quoi Allais (1953a, p. 516 n.21) entend Baumol, de Finetti, Friedman, Marschak, von Neumann-Morgenstern, Samuelson et Savage. Cette liste comporte aussi bien des subjectivistes que des objectivistes.

Bien évidemment, on se concentrera ici sur la seule critique des thèses de L. J. Savage et non sur celles de lécole américaine en général. De ce point de vue, il faut signaler quAllais (1953a) ne pouvait avoir connaissance du livre de Savage qui parut lannée suivante ; par contre, il disposait de la communication – un résumé en réalité des Foundations… – présentée par ce dernier lors du Colloque international sur le risque, tenu à Paris, du 12 153au 17 mai 1952 ; celle-ci a ensuite été publiée dans CNRS (1954). Sur le Colloque de Paris, sur son importance et plus généralement, sur le « paradoxe dAllais », Mongin (2014) fournit toutes les précisions souhaitables.

Allais reproche dabord à Savage de ne donner aucune définition de la rationalité, si ce nest une pseudo-définition, tautologique, du type : est rationnel tout qui se conforme aux axiomes retenus. Aussi notre auteur présente-t-il la sienne, quil qualifie dabstraite et qui se résume en la formule suivante : « un homme est réputé rationnel lorsque (a) il poursuit des fins cohérentes avec elles-mêmes, (b) il emploie des moyens appropriés aux fins poursuivies », Allais (1953a, p. 518). Il suit, notamment, de cette définition quun individu rationnel préfèrera toujours une perspective aléatoire procurant des gains constamment supérieurs à ceux dune autre perspective aléatoire et que seules les probabilités objectives définies par rapport aux fréquences observées doivent être prises en considération.

La critique allaisienne est double : il sagit de montrer, dune part, que la définition – abstraite – de la rationalité conduit à un comportement, parfois en opposition avec le principe de Bernoulli ; dautre part, quexpérimentalement, certaines formes de comportement rationnel sont contradictoires avec ledit principe.

On passera rapidement sur le premier volet de la critique en renvoyant à Allais (1953a, p. 522-524). La seconde approche – fondée sur lobservation du comportement dun homme réputé rationnel – recevra, par contre, toute lattention quelle mérite.

De ce point de vue, la critique dAllais porte tout spécialement sur laxiome 5 de Savage (1954a, p. 32), axiome quil qualifie « dindépendance » et dont il est commode dexpliquer la signification à partir du schéma suivant :

Fig. 2

154

Sur cette figure 2, sont représentées deux perspectives aléatoires, numérotées 1 et 2, qui ont une partie commune. Laxiome 5 de Savage revient à dire que la relation de préférence entre les deux perspectives nest pas modifiée en cas de déplacement quelconque de cette partie commune.

Pour Allais (1953a, p. 525), de nombreux exemples de comportements rationnels contredisent laxiome de Savage. Voici lun dentre eux4 :

Situation A

100 000€ avec probabilité 1

E(A) = 100 000

Situation C

100 000€ avec probabilité 0,11

0€ avec probabilité 0,89

E(C) = 11 000

Situation B

500 000€ avec probabilité 0,1

100 000€ avec probabilité 0,89

0€ avec probabilité 0,01

E(B) = 139 000

Situation D

500 000€ avec probabilité 0,1

0€ avec probabilité 0,9

E(D) = 50 000

In fine, Allais [1953a, p. 527] concluait des réponses reçues que « pour la plupart des gens très prudents (…) et très rationnels », ces réponses étaient de la forme :

Or, si un individu i préfère A à B, alors, en vertu de laxiome dindépendance de Savage, il devrait aussi préférer C à D, ce qui est, répétons-le, contradictoire avec les données observées à lissue de lenquête.

Ce contre-exemple a reçu le nom de « paradoxe dAllais ». Il a été reproduit à de multiples reprises tout en donnant à chaque fois des résultats similaires5. De ces expériences répétées, il suit la conclusion 155ultime que la théorisation de Savage ne représente pas un modèle descriptif adéquat du comportement de lindividu rationnel en incertitude. Par ricochet, la probabilité subjective elle-même se trouve mise à mal par cette inadéquation empirique notoire du modèle. On dira : le jugement est sévère. Pas tant que cela, si lon veut bien ne pas oublier que Friedman et Savage (1952, p. 473) avaient eux-mêmes écrits que lhypothèse de lutilité espérée « devrait être rejetée si ses prévisions étaient, le plus souvent, contredites par lobservation ».

IV. LA RÉVOLUTION DE LAXIOMATISATION

On développera dabord laxiomatisation de la théorie opérée par A.N. Kolmogorov, avant de souligner quelle sinscrit dans un cadre objectiviste. Pour terminer, on sattardera sur linterprétation poppérienne – le second Popper en quelque sorte ! – de la probabilité en tant que propension.

ET KOLMOGOROV VINT…

Durant tout le xixe siècle, la théorie des probabilités nétait pas considérée comme une branche des mathématiques, mais plutôt de la physique. En réalité, laxiomatisation de la probabilité était dépendante des progrès de la théorie de lintégrale. De ce point de vue, les dates importantes sont celles des publications de Cauchy (1823) et de Riemann (1867). Cependant, létape décisive sera effectuée par Lebesgue avec lintégrale qui porte son nom. Pour voir de quoi il sagit, prenons lexemple dune variable aléatoire X uniformément distribuée sur On sait que dans ce cas, pour on a :

Si A est une partie de le calcul de la probabilité est équivalent à la recherche de la mesure de A (sa longueur). Cest le mérite de Lebesgue davoir résolu ce problème en 1901.

Dès ce moment, il était techniquement possible de traiter les situations où il y avait une infinité (dénombrable ou pas) de cas possibles – si lon 156reprend la définition classique de la probabilité – et donc daxiomatiser la théorie des probabilités. La première tentative dans ce sens fut celle de von Mises (1919), mais comme on la vu, elle nétait pas vraiment satisfaisante. Par contre, la seconde, chronologiquement parlant, celle opérée par Kolmogorov en 1933, a révolutionné la théorie et a fini par simposer durablement.

Sans entrer dans trop de détails, tentons de donner brièvement lessentiel de lapport du mathématicien russe et considérons à cet effet une expérience aléatoire Ɛ, dont les résultats élémentaires, notés sont en nombre n. Soit alors lensemble Un événement nest rien dautre quun sous-ensemble de Notons 𝓟() lensemble de tous les événements, cest-à-dire des parties de 𝓟() est une algèbre dévénements, ce qui signifie que cette famille dévénements comprend lensemble vide et est stable pour les opérations de complémentation et de réunion finie. On appelle alors mesure de probabilité sur (, 𝓟()) toute application P telle que :

1. Pour tout événement

2. 𝓟() = 1 ;

3. Si A et B sont deux événements incompatibles de

Létape suivante consiste à envisager des univers de résultats dénombrables et non plus finis, Kolmogorov (1933, p. 14) introduit en conséquence un axiome supplémentaire de continuité dénombrable : si est une suite décroissante dévénements de
𝓟(), dintersection vide, alors

Lalgèbre de tous les événements devient à présent une tribu, cest-à-dire une famille dévénements contenant lévénement impossible et stable pour les opérations de complémentation et de réunion dénombrable. Il sensuit quil faut alors modifier le point 3 dans la définition de lapplication P et le remplacer par

4. pour toute famille dénombrable dévénements incompatibles,

157

Dernière étape : considérer des univers de résultats infinis-continus. Dans ce cas, lensemble de tous les événements est trop vaste et on sintéresse en conséquence à une tribu particulière, appelée tribu des boréliens de ℝ.

Notons 𝓑0 la tribu des sous-ensembles de qui sont des unions finies dintervalles disjoints de la forme et 𝓑 = (𝓑0) la plus petite tribu engendrée par 𝓑0. La tribu engendrée est précisément celle des boréliens de ℝ.

On a finalement le résultat suivant appelé théorème du prolongement des mesures de probabilité (cité daprès Bismans [2016, p. 84] en simplifiant légèrement) :

Toute mesure de probabilité définie sur une algèbre 𝓑0 dévénements de = admet un prolongement unique en une mesure de probabilité, notée P, définie sur la tribu (𝓑0) engendrée par 𝓑0.

Ce théorème signifie que si une probabilité est attribuée à un sous-intervalle de lalgèbre 𝓑0, alors la même probabilité sera attribuée à cet événement par référence à définie sur la tribu des boréliens 𝓑 =  (𝓑0).

Avec un tel formalisme, lintroduction de la probabilité et de lespérance conditionnelles est aisée et naturelle. Kolmogorov (1933) définit lune et lautre dès le chapitre 1 pour des variables aléatoires revêtant un nombre fini de valeurs, avant de généraliser les deux concepts à des variables aléatoires absolument continues – ce qui fait lobjet du chapitre 5.

Tous ces développements peuvent paraître passablement abstraits. En réalité, Kolmogorov (1933, p. 3) a pris soin décrire un paragraphe entier – le numéro 2, la monographie étant subdivisée en paragraphes –, qui est consacré à la relation de sa théorie avec les « données expérimentales ». Indubitablement donc, Kolmogorov se range dans le camp des objectivistes, même sil est possible bien sûr de donner une interprétation alternative – subjective en loccurrence – de son axiomatique.

158

LINTERPRÉTATION PROPENSIONNISTE

On a déjà signalé que Popper avait abandonné linterprétation fréquentiste quil défendait encore dans la Logique de la découverte scientifique et quil lui préférait désormais une approche en termes de propensions. Cette nouvelle interprétation fut exposée pour la première fois dans Popper (1963, 1985, chapter 1, p. 59 et sq.).

Ce changement, car cen est un, Popper (1983, p. 360) le voit comme une conséquence de lévolution de la théorie mathématique des probabilités – quil appelle la théorie néoclassique. Dans ses propres termes : « le passage de linterprétation fréquentiste à linterprétation propensionniste correspond au passage de la théorie mathématique des fréquences (…) au traitement néo-classique de la probabilité en termes de théorie de la mesure ». Autrement dit, le « second Popper » se situe explicitement dans le sillage de Kolmogorov et de laxiomatisation de la probabilité développée par ce dernier.

Popper (1983) développe plusieurs éléments qui montrent la supériorité de la théorie axiomatisée sur les mathématiques fréquentistes :

1. la probabilité est une application (mathématique) jouissant de propriétés déterminées ; il nest donc plus nécessaire de définir le concept en tant que tel ;

2. les distributions uniformes ne sont quun exemple parmi un ensemble très vaste de lois de probabilité ;

3. elle produit, via la convergence presque sûre, des théorèmes qui affirment quune suite aléatoire converge vers sa fréquence asymptotique avec une probabilité égale à un – ce sont les lois fortes des grands nombres.

Au total, il ny a donc pas un formalisme qui serait propre à lapproche propensionniste. Au contraire, cette dernière se situe explicitement dans le prolongement direct de la théorie axiomatisée.

Avant de donner une définition formelle de la probabilité-propension, prenons deux exemples, lun économique, lautre purement statistique qui permettront déclairer sa signification et faciliteront sa compréhension.

Keynes dans sa General Theory a introduit le concept de propension à consommer, quil définit comme une fonction mathématique « assez 159stable » – comprenons quelle subit des variations minimes que lon peut considérer comme aléatoires. Keynes (1936, p. 90-91) écrit par ailleurs que « le montant que la communauté dépense en consommation dépend évidemment : 1) en partie du montant de son revenu ; 2) en partie des autres circonstances objectives déterminant ce revenu ; 3) en partie des besoins subjectifs, des dispositions psychologiques et des habitudes des individus qui la composent, de même que des principes qui gouvernent la répartition du revenu entre ces individus ». Ce que notre auteur dit dans ce passage – sans faire référence à Popper bien évidemment –, cest que la propension à consommer est en fait une quantité aléatoire qui dépend dun ensemble de facteurs objectifs et subjectifs, quelle est donc le produit dune situation donnée dans toute sa complexité.

Autre exemple, développé cette fois dans Popper (1990) : celui des probabilités de survie consignées dans les tables de mortalité quutilisent notamment les compagnies dassurance. Si lon sinterroge sur leur signification, on répondra naturellement que la probabilité de survie dun individu est une propriété de létat de santé de cet individu. La réponse est correcte, mais insuffisante. Par exemple, cette probabilité est affectée par les progrès de la médecine : en effet, la mise au point de nouveaux médicaments – des antibiotiques par exemple – va modifier les probabilités de survie de chaque individu, quil tombe ou non malade. Cependant, il est indispensable daller encore plus loin et de considérer que le nouveau médicament, du moins lors de son lancement, est coûteux et quil pourrait bien ne pas être acquis par tout un chacun, même sil existe un système de sécurité sociale organisé. Comme le dit avec humour Popper, il faut donc également prendre en compte la variable « état de santé du portefeuille » des individus pour déterminer leurs probabilités de survie.

La conclusion à tirer de ce dernier exemple est simple : les probabilités de survie dépendent de la situation complexe donnée et non du seul état de santé physique des individus considérés.

Pour Popper, les probabilités mesurent la propension dun événement – nécessairement lié à un phénomène aléatoire – à se produire sur une échelle additive où le nombre 1 mesure la propension de lévénement certain, compte tenu dune situation déterminée. Dans cette optique, les lois des grands nombres constituent le « raccord », le pont, entre la probabilité 160théorique et la notion empirique de fréquence, mais la probabilité nest en aucun cas une fréquence relative.

Il sagit là dune interprétation objective de la probabilité, car les propensions sont des propriétés dun dispositif expérimental, dune situation à chaque fois spécifique. Cest pourquoi Popper (1982a, 1983) parle aussi dune « théorie physique des propensions ». Il va même plus loin, puisque, pour lui, la propension est une réalité physique au même titre que les forces dattraction ou de répulsion.

Il nest pas difficile de formaliser la conception propensionniste en utilisant les outils mathématiques de la théorie des probabilités. Popper (1983, p. 283-284) propose dailleurs un exemple dune telle formalisation, que lon va cependant adapter à un cadre kolmogorovien strict.

Soit lespace de probabilité (, 𝓐, P), est lunivers des résultats dune expérience aléatoire, 𝓐 est une tribu dévénements et P une mesure de probabilité. Si A  𝓐 et si S décrit lensemble des conditions situationnelles de lexpérience ou du phénomène aléatoire, alors

ce qui signifie que la probabilité conditionnelle de lévénement A étant donnée (ou sachant) la situation S, est égale à la propension p.

Il suit que les propensions sont donc des probabilités conditionnelles – concept parfaitement intégré dans laxiomatisation de Kolmogorov, on la vu – et non de simples probabilités – absolues pourrait-on dire – de la forme Cest sans doute cette proximité conceptuelle qui permet à Popper (1983, p. 374) décrire que la théorie néoclassique « favorise linterprétation propensionniste des probabilités ».

Linterprétation de Popper a le mérite, entre autres, de traiter le cas des événements singuliers ou isolés, non répétitifs, puisque, par définition, elle nest nullement fondée sur la notion de fréquence relative. (Pour une comparaison entre propensionnisme et fréquentisme, on renverra à Popper [1983, p. 286].) Certes, le concept de propension ou de disposition est moins usité dans les sciences dures que dans les sciences de lhomme. Il nempêche quil est tout aussi fécond dans les premières que dans les secondes.

Lapport de lauteur ne se situe donc pas sur un plan mathématique. Il fait à cet égard pleinement sien le formalisme kolmogorovien. Il est bien plutôt davoir montré que la conception propensionniste, arcboutée 161sur cette axiomatique, est celle – et de loin – qui est la plus appropriée à la recherche en physique moderne. En témoigne le fait que Popper (1982b) consacre la totalité du tome III de son Postscript à la seule étude de la « théorie des quanta et le schisme en physique ».

V. DÉTERMINISME ET PROBABILITÉ OBJECTIVE

De Laplace à Popper, tel était le parcours, le cheminement que nous voulions retracer. La boucle est donc bouclée, pourrait-on dire. Oui, mais en partie seulement, pas totalement, car il reste quentre les deux auteurs, la différence nest pas que dépoque ou chronologique ; elle est aussi conceptuelle, dans la mesure où linterprétation poppérienne de la probabilité est indissolublement liée à une critique du déterminisme laplacien. Mieux : la seconde est la condition de la première. Expliquons-nous.

Dans une page célèbre de son Essai…, Laplace (1825, p. 32-33) a parfaitement décrit son programme de recherche déterministe :

Tous les événements, ceux mêmes qui par leur petitesse semblent ne pas tenir aux grandes lois de la nature, en sont une suite aussi nécessaire que les révolutions du soleil. Dans lignorance des liens qui les unissent au système entier de lunivers, on les a fait dépendre des causes finales ou du hasard (…) Les événements actuels ont avec les précédents une liaison fondée sur le principe évident, quune chose ne peut pas commencer dêtre, sans une cause qui la produise. (…) Nous devons donc envisager létat présent de lunivers comme leffet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui pour un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent (…) embrasserait dans la même formule les mouvements des plus grands corps de lunivers et ceux du plus léger atome : rien ne serait incertain pour elle, et lavenir comme le passé serait présent à ses yeux.

Lintelligence à laquelle se réfère ce texte nest pas celle dun dieu, dun « démon » ou dune divinité quelconque. Selon lheureuse expression de Popper, il sagit bel et bien dun « super-scientifique », qui se comporte en savant, armé des lois de la dynamique classique et capable dembrasser la totalité de lunivers dans son devenir.

162

Ce super-scientifique – cest sa première caractéristique – dispose de la capacité de prévoir le futur, qui nest rien dautre que leffet de létat présent de lunivers. De plus, précision capitale, il est en mesure de prévoir quantitativement, cest-à-dire mathématiquement, létat du système du monde à nimporte quel instant du futur. On peut donc, dans ce cas, parler à bon droit de prédictibilité parfaite de lavenir, moyennant bien sûr la connaissance du passé et des conditions initiales du mouvement.

Seconde caractéristique, le super-scientifique a pour tâche déliminer le hasard, lincertitude en les remplaçant par lexplication causale. Laléatoire nexiste pas vraiment ; il nest que lexpression de notre ignorance mesurée par la probabilité. Cest déjà dit dans le texte cité. Mais Laplace (1825, p. 223) est encore plus explicite sur le sujet lorsquil écrit : « (…) le hasard na donc aucune réalité en lui-même : ce nest quun terme propre à désigner notre ignorance sur la manière dont les différentes parties dun phénomène se coordonnent entre elles et avec le reste de la Nature ».

Prédictibilité du futur et élimination de laléatoire constituent donc la matrice du déterminisme scientifique que Popper (1982a, p. 31) définit comme suit : « La structure du monde est telle que tout événement peut être rationnellement prédit, au degré de précision voulu, à condition quune description suffisamment précise des événements passés, ainsi que toutes les lois de la nature nous soient données. »

On peut bien entendu émettre nombre de critiques à légard de cette forme de déterminisme6. Par exemple, comment un calcul de notre ignorance – la probabilité – peut-il être vérifié par des faits physiques ? Ou encore, on peut lui objecter quune bonne partie de la physique contemporaine – notamment celle qui est fondée sur la théorie des quanta – na de sens quinterprétée en termes probabilistes.

Popper va plus loin dans le questionnement. Le cœur de sa critique réside dans le fait quun scientifique ne peut prédire, rationnellement, les résultats produits par la croissance de nos connaissances. Dès lors, aucun système physique nest totalement prédictible.

Les étapes essentielles du raisonnement de Popper (1982a, p. 58-65) sont les suivantes :

163

(i) le déroulement de lavenir – prédictible pour un déterministe – dépend, dans une large mesure, de laccroissement de nos connaissances scientifiques (une proposition jugée tout à fait raisonnable par Popper) ;

(ii) lauto-prédiction des connaissances scientifiques est impossible et ceci est vrai pour nimporte quel ensemble de prédicteurs ;

(iii) la croissance de nos connaissances ne peut donc être prédite.

In fine, il sensuit que la vision dun monde strictement déterminé nest pas tenable sur un plan scientifique et quil faut donc lui substituer celle dun univers « ouvert », « irrésolu », indéterminé, dans lequel le hasard et laléatoire occupent une place centrale. Cest lindéterminisme de Popper.

Il faut alors en tirer le grand enseignement que la critique poppérienne du déterminisme défendu par Laplace et corrélativement, de sa conception de la probabilité comme mesure de notre ignorance, induit une rupture théorique significative.

À lunivers laplacien, déterminé de part en part, dans lequel le hasard nest quun reliquat de linsuffisance de nos connaissances scientifiques, fait place un univers ouvert, indéterminé par nature et par principe, constitué de propensions physiques qui trouvent à se réaliser ou non – bref à advenir.

Tel est, en définitive, le grand mérite de Popper : avoir, dans un même mouvement, critiqué, jusque dans ses fondements, le déterminisme scientifique et sa probabilité-ignorance, tout en y substituant un univers de propensions, régi par la multitude et le choc des probabilités conditionnelles, qui sentrecroisent et sinterfèrent. À vrai dire, le mérite nest pas mince. Nous disposons désormais dune interprétation objective, mathématiquement axiomatisée, de la probabilité, opérationnelle à tous égards.

Que demander de plus ? La boucle est à présent véritablement bouclée : Popper contre Laplace en somme.

164

CONCLUSIONS

Cet article a retracé lévolution du concept mathématique de probabilité de Laplace à Popper, cest-à-dire de la définition classique – nombre de cas favorables rapporté au nombre de cas possibles, ces derniers étant réputés également possibles – à la conception de la probabilité en tant que propension conditionnelle.

Bien entendu, un tel développement na rien de linéaire. Il est scandé par des ruptures, conceptuelles (objectivistes versus subjectivistes) autant que mathématiques. À cet égard, laxiomatisation de la théorie des probabilités par Kolmogorov sapparente à un véritable point de non-retour, même si elle est susceptible de recevoir diverses interprétations.

Trancher entre lune ou lautre de ces interprétations naurait pas grand sens. Elles ont toutes, à des degrés divers cependant, des points forts et des faiblesses, parfois marquées. Néanmoins, la conception du « dernier Popper » de la probabilité-propension, arcboutée à laxiomatique de Kolmogorov, offre lavantage de fournir une interprétation « objective » de la probabilité, débarrassée des limitations et des insuffisances de la conception fréquentiste traditionnelle.

Qui plus est, lavancée interprétative de Popper se double dune critique du déterminisme laplacien et de sa conception de la probabilité comme mesure de notre ignorance. De ce fait, univers indéterminé et probabilité-propension se conjuguent pour donner une grille théorique apte à mieux appréhender tant le monde physique que les sociétés.

Un débouché naturel de ce travail consisterait à reprendre la « diachronie » de la probabilité mathématique et à lexaminer en parallèle avec la question du déterminisme philosophique. Un vaste domaine qui, de Laplace à Thom, a fait lobjet de débats aussi intéressants que passionnés !

165

RÉFÉRENCES BIBLIOGRAPHIQUES

Allais, Maurice [1943], Traité déconomie pure, 3e édition, Paris, Éditions Clément Juglar, 1994.

Allais, Maurice [1953a], « Le comportement de lhomme rationnel devant le risque : critique des postulats et axiomes de lécole américaine », Econometrica, 21, p. 503-546.

Allais, Maurice [1953b], « La psychologie de lhomme rationnel devant le risque : la théorie et lexpérience », Journal de la Société Statistique de Paris, 94, p. 47-73.

Allais, Maurice [1979], « The So-Called Allais Paradox and Rational Decisions under Uncertainty », in Allais, Maurice & Hagen, Ole (éd.) [1979], Expected Utility Hypothesis and the AllaisParadox. Contemporary Discussions of Decisions under Uncertainty with AllaisRejoinder, Dordrecht, Reidel Publishing Company, p. 434-698.

Bismans, Francis [2016], Probabilités et statistique inférentielle. Prélude à léconométrie, Paris, Ellipses.

Borel, Émile [1924], « À propos dun traité de probabilités », Revue philosophique, No 98, p. 321-336, in Borel, Émile [1939], p. 134-146.

Borel, Émile [1939], Valeur pratique et philosophie des probabilités. Réédition en fac-simile, Paris, Jacques Gabay, 2009.

Breny, Henri [1975], Petit traité élémentaire de théorie des probabilités, 2e édition, Liège, Edibon.

CNRS [1954], Fondements et applications de la théorie du risque en économétrie, Paris, Éditions du Centre National de la Recherche Scientifique.

Cournot, Augustin A. [1851], Essai sur les fondements de nos connaissances et sur les caractères de la critique philosophique, in Cournot, Augustin A. [1975], Œuvres complètes, tome II, Paris, Vrin.

Daston, Lorraine J. [1988], Classical Probability and the Enlightenment, Princeton, Princeton University Press.

Finetti, Bruno de [1937], « La prévision : ses lois logiques, ses sources subjectives », Annales de lInstitut Henri Poincaré, tome 7, No 1, p. 1-68.

Finetti, Bruno de [1957], « Linformazione, il ragionamento, linconscio nei rapporti con la previsione », Lindustria, No 2, p. 3-27.

Finetti, Bruno de [1975], Theory of Probability, vol. 2, Chichester, Wiley.

Finetti, Bruno de [1985], « Cambridge Probability Theorists », The Manchester School of Economic and Social Studies, No 53, p. 348-363.

166

Friedman, Milton & Savage, Leonard J. [1948], « The Utility Analysis of Choices Involving Risk », Journal of Political Economy, No 56, p. 279-304.

Friedman, Milton & Savage, Leonard J. [1952], « The Expected-Utility Hypothesis and the Measurability of Utility », Journal of Political Economy, No 60, p. 463-474.

Hacking, Ian [1975], The Emergence of Probability, Cambridge, Cambridge University Press.

Hicks, John R. [1979], Causality in Economics, Oxford, Basil Blackwell.

Jeffreys, Harold [1939], Theory of Probability, 2nd edition, Oxford, Clarendon Press, 1948.

Kahneman, Daniel & Tversky, Amos [1979], « Prospect Theory: An Analysis of Decision under Risk », Econometrica, No 47, p. 263-292.

Keynes, John M. [1921], A Treatise on Probability, in Collected Writings of John Maynard Keynes, tome 8, London-Cambridge, Macmillan-Cambridge University Press, 1973.

Keynes, John M. [1936], The General Theory of Employment, Interest and Money, in Collected Writings of John Maynard Keynes, tome 7, London-Cambridge, Macmillan-Cambridge University Press, 1973.

Keynes, John M. [1937], « The General Theory of Employment », Quarterly Journal of Economics, Vol. 51, No 2, p. 209-223. Repris dans Collected Writings of John Maynard Keynes, tome 14, London-Cambridge, Macmillan-Cambridge University Press, 1973.

Kolmogorov, Andreï N. [1933], Grundbegriffe der Wahrscheinlichkeitrechnung, Berlin, Springer. (Traduction anglaise : Foundations of the Theory of Probability, 2e édition, Rhode Island, AMS Chelsea Publishing, 2000.)

Krüger, Lorenz, Daston, Lorraine J. & Heidelberger, Michael (dir.), [1987], The Probabilistic Revolution, volume I: Ideas in History, Cambridge-London, A Bradford Book, The MIT Press.

Kyburg, Henry E. & Smokler, Howard E. (dir.) [1964], Studies in Subjective Probability, New York-London-Sidney, John Willey.

Laplace, Pierre-Simon [1814], Théorie analytique des probabilités, 2e édition, Paris, Courcier. (Disponible sur Internet).

Laplace, Pierre-Simon [1825], Essai philosophique sur les probabilités, 5e édition, Paris, Christian Bourgois, 1986.

Luce, Duncan R. & Raiffa, Howard [1957], Games and Decision. Introduction and Critical Survey, New York-London-Sydney, John Wiley & Sons.

Mises, Richard von [1919], « Grundlagen der Wahrscheinlichkeitsrechnung », Mathematische Zeitschrift, No 5, p. 52-99.

Mises, Richard von [1957], Probability, Statistics and Truth, second revised English edition, New York, Dover, 1981.

167

Mongin, Philippe [2014], « Le paradoxe dAllais. Comment lui rendre sa signification perdue ? », Revue économique, No 65, p. 743-779.

Neumann, John von & Morgenstern, Oskar [1953], Theory of Games and Economic Behavior, third edition, Princeton, Princeton University Press.

Pascal, Blaise [1665], Traité du triangle arithmétique : avec quelques autres petits traités sur la même matière, Paris, Guillaume Desprez, in pascal, Blaise [1963], Œuvres complètes, Paris, Seuil.

Popper, Karl R. [1934], Logik der Forschung, Wien, Julius Springer.

Popper, Karl R. [1959], The Logic of Scientific Discovery, second English edition, London, Unwin Hyman, 1980.

Popper, Karl R. [1973], La logique de la découverte scientifique. Traduction de Nicole Thyssen-Rutten & Philippe Devaux, Préface de Jacques Monod, Paris, Payot.

Popper, Karl R. [1982a], Postscript to the Logic of Scientific Discovery. II. The Open Universe. An Argument for Indeterminism, London-New York, Routledge (Trad. française, Lunivers irrésolu. Plaidoyer pour lindéterminisme, Paris, Hermann, 1984.)

Popper, Karl R. [1982b], Postscript to the Logic of Scientific Discovery. III. Quantum Theory and the Schism in Physics, London-New York, Routledge, 1992.

Popper, Karl R. [1983], Postscript to the Logic of Scientific Discovery. I. Realism and the Aim of Science, London-New York, Routledge, 1992.

Popper, Karl R. [1989], Conjectures and Refutations. The Growth of Scientific Knowledge, fifth edition, London-New York, Routledge.

Popper, Karl R. [1990], A World of Propensities, Bristol, Thoemmes Press.

Ramsey, Frank P. [1926], « Truth and Probability », in Ramsey, Frank P. [1990], Philosophical Papers, Cambridge, Cambridge University Press.

Reichenbach, Hans [1935], Wahrscheinlichkeitslehre, Leiden, Sijthoff.

Reichenbach, Hans [1937], « Les fondements logiques du calcul des probabilités », Annales de lInstitut Henri Poincaré, No 7, fasc. 5, p. 267-348.

Savage, Leonard J. [1954b], The Foundations of Statistics, New York, Wiley.

Savage, Leonard J. [1961], « The Foundations of Statistics Reconsidered », Proceedings of the Fourth Berkeley Symposium on Mathematics and Probability, Berkeley, University of California Press. Reproduit dans kyburg, Henry E. & Smokler, Howard E. (dir.), [1964], p. 174-188.

Savage, Leonard J. [1951], « The Theory of Statistical Decision », Journal of the American Statistical Association, No 46, p. 55-67.

Savage, Leonard J. [1954a], « Une axiomatisation du comportement raisonnable face à lincertitude », in CNRS [1954], p. 29-33.

Schneider, Ivo [1987], « Laplace and Thereafter: The Status of Probability Calculus in the Nineteenth Century », in Krüger, Lorenz, Daston, Lorraine J. & Heidelberger, Michael (dir.), [1987], p. 191-214.

168

Stigler, Stephen M. [1986], The History of Statistics. The Measurement of Uncertainty before 1900, Cambridge-London, The Belknap Press of Harvard University Press.

Szafarz, Ariane [1984], « Richard von Mises : léchec dune axiomatique », Dialectica, 38, p. 311-317.

Szafarz, Ariane [1985], « Lévolution du concept de probabilité mathématique de Pascal à Laplace », Technologia, 8 (3), p. 67-76.

Venn, John [1888], The Logic of Chance, third edition, re-written and enlarged, London-New York, Macmillan and co.

1 Jai bénéficié, lors de lécriture de cet article, de remarques et de critiques de la part de plusieurs chercheurs du BETA, en particulier Rodolphe Dos Santos et Bertrand Koebel. Les commentaires dun rapporteur anonyme mont également été très utiles. Bien entendu, je reste seul responsable des éventuelles erreurs qui subsisteraient.

2 Si les premiers probabilistes savaient empiriquement ce quétait une variable aléatoire, le concept dans sa forme moderne suppose lutilisation de la théorie des ensembles de Cantor, dont les travaux essentiels ont été publiés entre 1874 et 1884. Avant le début du xxe siècle, il ne pouvait donc être question dune définition satisfaisante dune variable aléatoire.

3 Signalons, mais cest très technique, que lutilité doit être indépendante des états du monde pour assurer lunicité de la probabilité.

4 Cet exemple est détaillé dans Allais (1953a, p. 527). Il avait déjà été présenté par ce dernier à Savage lui-même, en 1952, sous une forme à peine différente – voyez CNRS (1954, p. 139), mais aussi et surtout, Savage (1954b, p. 102-103). Il est, en réalité, extrait dune enquête réalisée en 1952 ; le questionnaire correspondant est reproduit dans Allais (1953b). Les résultats, partiels, furent seulement publiés vingt-sept ans plus tard dans Allais (1979, appendix C). Par ailleurs, Allais (1994, p. 67-68) donne quelques détails sur lenquête et Mongin (2014, p. 751-752) en livre une appréciation critique.

5 On se contentera de signaler à cet égard, le travail de Kahneman et Tversky (1979, p. 266), qui, sur base dexemples identiques, mais de montants monétaires plus faibles, montre que « plus de la moitié des répondants violaient la théorie de lutilité espérée ».

6 Il existe en effet dautres formes du déterminisme – en particulier la forme métaphysique ou celle du sens commun. Ou encore – cest une des cibles principales de la critique de Popper – le déterminisme psychique associé à Freud et à la psychanalyse.