Notre civilisation passe son temps à s’inventer de nouveaux risques, le plus souvent imaginaires : une maladie qui viendrait décimer l’espèce humaine, des dérèglements climatiques, tout est bon à prendre. Pourtant, nous vivons mieux et plus longtemps que par le passé.
Mais parallèlement, des risques avérés ne sont pas convenablement pris en compte : les zones où un fort séisme s’est produit sont susceptibles d’en voir d’autres, les zones inondables sont susceptibles d’être inondées ! Et pourtant, on y construit allègrement.
Ce que nous essayons de faire dans ce livre est une évaluation scientifique des risques. Nous construisons progressivement des méthodes quantitatives qui permettent de les estimer. Elles reposent nécessairement sur des faits, sur des observations et sur des données.
Une méthode scientifique d'évaluation des risques ne peut être que probabiliste. On n'est jamais sûr que l'événement redouté va se produire. On dispose d'informations, floues, incomplètes, disparates, insuffisantes, et à partir de cela il faut parvenir à chiffrer une éventualité.
Cela ne peut se faire par les méthodes usuelles de statistiques, car les échantillons sont faibles et, en général, les lois d'apparition des phénomènes ne sont pas connues.
Il faut se garder de déclarations abruptes, du genre : "la crue de la Seine en 1910 est centennale", tout simplement parce que l'on n'enregistre pas les crues avec suffisamment de recul pour en juger correctement. Les données fiables sur ces questions n'ont pas 200 ou 300 ans : on procède par recoupements, par analyse de textes, par études de témoignages, car aucune mesure n'existait. A l'heure actuelle, on n'est pas capable de chiffrer exactement la probabilité d'une crue de la Seine, de hauteur fixée : il y a une incertitude sur cette probabilité. Nous présentons dans cet ouvrage de nombreux exemples de telles situations, où l'on ne peut annoncer que des ordres de grandeur, et non des valeurs précises.
Bien entendu, il faut se garder de suppléer l'insuffisance de l'information en introduisant des lois factices, ce que tout le monde fait pourtant. Il ne faut pas dire "tel phénomène suit une loi de Gumbel", parce que cela n'est pas vrai, parce que l'on n'en sait rien, et parce que ce n'est qu'une hypothèse académique, destinée à faciliter les calculs, mais sans consistance réelle.
En résumé, il y a énormément de précautions à prendre pour parvenir à construire une théorie qui puisse avoir une valeur prédictive. Mais le besoin est là au quotidien : en sismologie, en épidémiologie, en fiabilité, et dans d'innombrables autres sujets ; si imparfaite que soit la théorie que nous présentons dans ce livre, elle vaudra mieux que l'irrationnel qui prévaut aujourd'hui.
L'ouvrage
Il est divisé en deux parties : la première traite des méthodes probabilistes pour le risque, en général, avec des développements spécifiques en épidémiologie et en sismologie. La seconde partie introduit l'EPH "Experimental Probabilistic Hypersurface" et montre comment l'utiliser. Cette seconde partie est nettement plus difficile sur le plan théorique (du fait de la présence du concept d'entropie), mais l'EPH est simple à mettre en oeuvre en pratique.
Ce livre n'est pas un manuel d'initiation aux probabilités ; il suppose une certaine familiarité avec les méthodes probabilistes, telles qu'elles sont décrites par exemple dans le livre du même auteur "Méthodes probabilistes pour l'étude des phénomènes réels". Bien entendu, l'application pratique à un sujet spécifique (sismologie, inondations, etc.) requiert des connaissances et des données qui vont bien au-delà de ce qui est présenté ici : ce sont les mé-thodes mathématiques qui nous intéressent dans ce livre. Bien entendu aussi, il existe quan-tité d'ouvrages concernant l'analyse et le traitement des risques, à propos desquels nous invoquerons Alphonse de Lavater : "Dieu préserve ceux qu'il chérit des lectures inutiles".
- Ecouter l'entretien réalisé avec Bernard Beauzamy, le 17 janvier 2011.