Maîtriser l’incertitude
Publié en février 2025. Par Michel André.
Saviez-vous que dans un groupe de 23 personnes prises au hasard, la probabilité que deux d’entre elles aient la même date de naissance est de 50 % ? Un exemple parmi bien d’autres de l’efficacité du calcul des probabilités – qui recèle aussi quelques pièges.

Notre vie se déroule au milieu d’un océan d’incertitudes : pourquoi les choses se sont-elles passées de telle manière plutôt que de telle autre ? Comment se passeront-elles dans l’avenir ? Que devons-nous craindre et que pouvons-nous espérer ? Nul n’a mieux résumé cette caractéristique de la condition humaine que l’ancien secrétaire à la Défense des États-Unis Donald Rumsfeld dans une déclaration fameuse, raillée à l’époque en raison de son objet (la présence ou non d’armes de destruction massive en Irak), mais aujourd’hui considérée comme exprimant une vérité profonde : « Comme chacun sait, il y a le connu connu, c’est-à-dire les choses que nous savons que nous savons ; nous savons aussi qu’il y a l’inconnu connu, c’est-à-dire les choses que nous savons que nous ne savons pas ; mais il y a aussi l’inconnu inconnu – les choses que nous ne savons pas que nous ne savons pas ».
L’objet du calcul des probabilités consiste à ramener de l’inconnu inconnu à de l’inconnu connu, en quantifiant l’incertitude. David Spiegelhalter lui consacre un livre, qui s’inscrit dans le prolongement d’un ouvrage d’introduction à la statistique qu’il avait publié il y a quelques années. Les deux disciplines sont formellement distinctes : le calcul des probabilités est la science des événements aléatoires et du hasard, la statistique une technique de traitement et d’interprétation des données. Mais elles sont étroitement liées. On trouve donc dans The Art of Uncertainty un rappel de notions fondamentales en statistique descriptive dont certaines sont parfois confondues, comme la moyenne (le quotient du total des valeurs par le nombre de cas), la médiane (la valeur divisant la population étudiée en deux groupes de taille égale) et le mode (la valeur la plus fréquente).
Le calcul des probabilités s’est développé en liaison avec les jeux de hasard. Bien qu’on jouât déjà aux dés avec des osselets de mouton dans la Rome antique, c’est seulement à la Renaissance que furent jetées les bases de l’étude mathématique des jeux de hasard. Au milieu du XVIe siècle, le mathématicien italien Jérôme Cardan (Cardano) publiait un livre sur le sujet. Le premier, il établit qu’en raison de la symétrie des dés à jouer, chacune des six faces numérotées avait la même chance d’apparaître au sommet. Ses travaux sur la manière de calculer à l’avance les résultats d’une série de lancers seront poursuivis par Galilée et, surtout, Pierre de Fermat et Blaise Pascal, souvent considérés pour cette raison comme les inventeurs du calcul des probabilités. Dans un échange de lettres célèbre, les deux mathématiciens français s’emploient à répondre à la question suivante : comment répartir équitablement les mises dans le cas où une partie est interrompue, en estimant ce qu’auraient été les gains des joueurs si elle s’était poursuivie ? Il faudra cependant attendre 1713 pour que le terme « probabilité » dans le sens où nous l’employons aujourd’hui fasse son apparition, sous la plume de Jacob Bernoulli. Peu après, Giacomo Casanova, qui avait d’autres talents que celui de séduire les femmes, participa à la création d’un système de loterie destiné à renflouer les caisses du gouvernement français. Il permettait, en fixant le prix des billets sur la base du calcul des possibilités de gain, de faire à long terme un profit substantiel. À un certain moment, les sommes rapportées par cette loterie représentèrent 4 % du revenu de l’État.
Les esprits sont loin de s’accorder sur la nature des probabilités. Aux yeux des tenants des conceptions « classique », « fréquentiste » ou « logique » (celle imaginée par J. M. Keynes, abandonnée aujourd’hui), les probabilités ont une existence objective, sous la forme de faits du monde (les deux premières) ou de relations logiques objectives (la troisième). Mais il est aussi possible de considérer les probabilités dans une perspective subjective comme l’expression quantifiée de notre incertitude personnelle. Ce point de vue a été défendu sous différentes variantes, notamment par les logiciens Frank Ramsey, dans une très sévère critique de Keynes, et Alan Turing. « La probabilité n’existe pas », n’hésitait pas à déclarer dans cet esprit le mathématicien italien du XXe siècle Bruno de Finetti. Sans aller jusqu’à souscrire à cette formule provocatrice, David Spiegelhalter se range explicitement dans cette école : « Les probabilités sont des jugements subjectifs, même si elles sont basées sur des considérations de symétries physiques, sur l’analyse des données ou sur des modèles complexes. La seule exception possible se situe au niveau quantique subatomique. »
Que les probabilités soient l’expression de jugements subjectifs implique que celles que nous affectons aux différents événements sont conditionnées par l’information dont nous disposons et que l’acquisition de nouveaux éléments d’information peut nous conduire à les modifier. Au XVIIIe siècle, le révérend Thomas Bayes a formalisé cette idée dans un théorème célèbre qui a donné naissance à l’interprétation dite « bayésienne » des probabilités. Spiegelhalter donne de multiples exemples de son application, du calcul de la chance de tirer une boule d’une certaine couleur d’un sac en fonction de celle des boules qui sont déjà sorties, à l’estimation de la probabilité, non qu’une personne meure du Covid si elle a été vaccinée, mais qu’elle ait été vaccinée si elle en meurt.
Il n’est pas possible de traiter des probabilités sans évoquer la question des coïncidences. Écartant d’emblée les théories étranges (« sérialité » de Paul Kammerer, « synchronicité » de Carl Jung, « résonance morphique » de Rupert Sheldrake) avancées pour expliquer des événements apparemment très peu probables, Spiegelhalter montre que les coïncidences s’expliquent, soit par la loi des grands nombres, qui veut que même des événements rares finissent par arriver, soit par la sélection des faits qui vont dans le sens de ce que l’on veut prouver (on ignore ceux qui contredisent les attentes), soit par une interprétation trop généreuse des résultats. Beaucoup d’entre elles découlent mécaniquement des nombres en jeu : dans un groupe de 23 personnes prises au hasard, la probabilité que deux d’entre elles aient la même date de naissance est de 50 %. Celle que deux personnes dans un groupe de 20 aient des numéros de téléphone se terminant par les deux mêmes chiffres est de 67 %. Tout dépend aussi de la question posée. Durant la semaine qui va du 17 juillet au 24 juillet 2014, trois avions civils ont été abattus ou se sont écrasés dans le monde. La probabilité de trois catastrophes semblables une même semaine donnée est de 1/1000. Mais celle d’un tel regroupement durant un intervalle quelconque de 8 jours durant 10 ans est de 1/6.
Spiegelhalter clarifie aussi l’idée de « chance » en en distinguant trois formes : la chance « constitutive » qui tient à ce que l’on est : le pays où l’on est né, qui sont ses parents, sa constitution physique ; la chance « circonstancielle » qui fait que l’on se trouve, selon la formule consacrée, « au bon moment au bon endroit » (ou l’inverse) ; et la chance « résultante » qui fait que deux personnes exposées aux mêmes circonstances s’en tirent plus ou moins bien. Ces différentes formes de chance peuvent se combiner, mais aussi se contrecarrer. Ce qui semblait au départ une malchance peut également s’avérer plus tard une chance, et vice versa.
Dans des domaines comme l’épidémiologie, l’évaluation de l’effet des médicaments, les systèmes de surveillance, l’expertise judiciaire, l’emploi des probabilités requiert de bien garder à l’esprit la différence entre la sensibilité d’un test ou d’un système de détection (sa capacité d’écarter les faux négatifs) et sa spécificité (sa capacité d’exclure les faux positifs). Un système de reconnaissance faciale permet d’identifier 70 % des personnes considérées comme suspectes, mais avec un taux de fausses alertes de 1/1000. Imaginons que sur un total de 10 000 personnes, 10 soient suspectes. 7 seront identifiées, mais aussi 10 personnes non suspectes : le taux de faux positifs sera de 59 %. Dans le domaine judiciaire, la confusion entre deux catégories de probabilités conditionnelles porte un nom : « l’erreur du procureur ». Sur une scène de crime, de l’ADN a été trouvé, qui correspond largement à celui d’un suspect. On peut légitimement affirmer que, si le suspect n’était pas présent sur la scène de crime et que l’ADN a été laissé par quelqu’un d’autre, la probabilité qu’il ressemble à ce point à celui du suspect est de d’1/1 000 000. Mais cela ne signifie pas qu’avec ce degré de ressemblance il n’y a qu’une chance sur 1 000 000 que le suspect n’ait pas été présent sur la scène de crime. David Spiegelhalter cite plusieurs exemples tragiques d’erreurs judiciaires engendrées, dans des affaires criminelles, par une estimation incorrecte des causes probables d’un décès.
C’est en termes de probabilités que sont établis les différents scénarios produits par les modèles prédictifs utilisés en climatologie, météorologie, épidémiologie et d’autres disciplines. Ces modèles, reconnaît Spiegelhalter, sont loin d’être parfaits. Certains (notoirement en économie) ont démontré être spectaculairement peu fiables. Il vaut donc toujours mieux, suggère-t-il, en employer plusieurs, et, comme le dit un expert, s’il est vrai que tous les modèles sont faux, certains sont utiles.
Une question liée est celle des risques, de leur estimation et de leur prévention. Il faut ici se méfier du langage ordinaire et des nomenclatures imprécises et variables. J. F. Kennedy donna son feu vert à l’opération de débarquement d’opposants à Fidel Castro à Cuba, qui fut un désastre, parce qu’elle lui était présentée comme ayant une « fair chance » de succès, expression qu’il interpréta comme signifiant « une chance raisonnable ». Dans l’esprit des responsables de la CIA, qui avaient hésité à avancer un chiffre, la probabilité qu’elle réussisse n’était toutefois que de 30 %. On sait à présent que le risque d’échec était de 90 %. Les fourchettes de pourcentage utilisées aujourd’hui par les organisations nationales et internationales sous le terme « probable » vont de 55-75 % à 66-100 % selon les cas. Il faut aussi se garder de confondre danger (la présence d’une source possible de dommage) et risque (la probabilité qu’un dommage soit causé), ainsi que risque relatif et risque absolu, bénéfice relatif et bénéfice absolu : « Le bénéfice relatif détermine si un vaccin est efficace, et représente donc le bon critère pour autoriser sa mise sur le marché. Le bénéfice absolu est pertinent pour décider s’il convient de l’administrer, compte tenu de ses possibles effets secondaires. »
On l’aura compris, The Art of Uncertainty n’est pas un traité du calcul des probabilités, mais un ouvrage de haute vulgarisation destiné à un large éventail de lecteurs potentiels : étudiants, professionnels de la santé et de la sécurité, responsables politiques, amateurs de jeux logiques et de devinettes, toute personne intéressée à mieux comprendre des notions comme celles de « probabilité », « chance » ou « risque » et désireuse d’employer ces termes avec plus de précision et de rigueur. Le livre illustre à l’aide de multiples exemples la puissance des outils mathématiques qui ont été forgés pour maîtriser le hasard et réduire l’incertitude. Mais il montre aussi les inévitables limites de leur emploi. L’incertitude fera toujours partie notre existence, souligne en conclusion David Spiegelhalter et nous devons accepter de vivre avec elle. Mais « vivre avec l’incertitude ne veut pas dire se montrer prudent à l’excès. On peut prendre des risques sans être téméraire. »