À mots découverts

Published on 16 novembre 2022 |

0

[Modèles] Faux, mais fondamentaux !

Par Sylvie Berthier

18 août 2022, un nuage colossal, sombre et menaçant, s’accompagnant d’orages, de tornades et de rafales inédites, déboule tel un rouleau compresseur sur l’Île de Beauté. Le ciel vient de tomber sur la tête des Corses, faisant d’innombrables dégâts matériels et, surtout, cinq morts dont une enfant, ainsi qu’une vingtaine de blessés. Immédiatement, une autre tempête se déchaîne, médiatico-politique celle-là : pourquoi Météo-France a-t-elle lancé l’alerte trop tard ? L’organisme météorologique reconnaît avoir été surpris par cet épisode exceptionnel, difficilement prévisible par ses modèles numériques. Qui est responsable ? Le ministre de l’Intérieur diligente une enquête. Après la pandémie de Covid-19, ce dernier exemple illustre bien la difficulté à modéliser l’inhabituel et vient révéler le dialogue compliqué entre la science et le politique. Dans cet entretien croisé avec Catherine Bourgain, directrice du Cermes3, et Patrick Lagadec, spécialiste du risque et des situations complexes, retour sur les modèles, leurs limites et leurs enjeux. Un propos salvateur, en ces temps où les crises de toute nature s’amoncellent.

Commençons déjà par définir ce qu’est un modèle…

Catherine Bourgain est directrice du Cermes3 (Centre de recherche médecine, sciences, santé, santé mentale et société) – (UMR 8211 CNRS-Inserm U988-EHESS- Univ. Paris), où elle conduit notamment des enquêtes sur l’épistémologie et les pratiques contemporaines de la recherche en génétique humaine, avec un intérêt particulier pour la modélisation et les données de santé.

Catherine Bourgain : Ce terme est extrêmement polysémique. Quand mes collègues hématologues parlent de « modèles », ils évoquent les souris d’expérimentation. Rien à voir avec les modèles numériques utilisés pendant la pandémie de Covid-19, ces équations mathématiques qui permettent de se faire une représentation de réalité, quand l’expérimentation est impossible ou trop complexe. La modélisation est donc un outil de démarche scientifique adossée à une théorie, pour mieux comprendre le monde. Dans les années 1960-70, avec le déploiement des outils informatiques et l’augmentation de leur puissance de calcul, les modélisations sont devenues sophistiquées et alimentées par une pléthore de mesures de toute nature. De fait, en scrutant la réalité de façon de plus en plus fine, les modèles sont devenus de plus en plus complexes. La visée est de mieux comprendre, disais-je, mais aussi d’anticiper, sachant que tout le monde n’est pas d’accord sur ce dernier usage. En génétique humaine, par exemple, des points de vue très opposés s’affrontent entre ceux qui pensent que l’on peut prédire la taille d’un enfant par les modèles et ceux qui affirment que l’outil est trop mauvais pour cela. Et on a bien vu les limites de la capacité de prédiction des modèles durant la pandémie1.

Inventeur du concept de Risque technologique majeur (1979), pionnier de la gestion des crises en France et en Europe (1990), initiateur d’un travail avec de grands groupes sur les ruptures (2020), concepteur de la méthode Force de Réflexion Rapide (FRR, 2005), Patrick Lagadec, est aujourd’hui conférencier et consultant sur le pilotage des situations complexes en univers chaotiques. https://www.patricklagadec.net

Patrick Lagadec : J’ai passé ma vie à observer les situations où les modèles de référence ne marchaient pas. Je pense qu’ils sont indispensables et pertinents en situation à peu près stabilisée et cyclique, quand on peut les adapter en continu avec les nouvelles données disponibles. En revanche, dans un contexte largement inconnu, le modèle reste très intéressant si ceux qui le produisent peuvent clarifier ses limites et anticiper les erreurs de lecture que pourront en faire les utilisateurs (politiques, chefs d’entreprises, d’administration, citoyens si ceux-ci sont dans la boucle d’information…). Dominique Dormont, scientifique majeur lors de la crise de la vache folle, disait : « La première responsabilité de l’expert c’est de donner au politique les limites de ses connaissances. » Or, en situation de forte incertitude – et plus encore d’inconnu –, il faut en permanence réinterroger les hypothèses de départ. Ce n’est malheureusement pas toujours le cas. Je me rappelle que, dans un groupe de crise sur le H1N1 (grippe A) où j’avais été invité « par accident », je me suis étonné que la discussion soit centrée sur le H5N1 – pour laquelle il y avait un plan. Ce à quoi on m’a répondu : « Vous nous cassez tout notre plan ! » J’osai une question : « Le problème, c’est le plan ou le pays ? » Je n’ai plus été réinvité.

Pourquoi n’arrive-t-on pas à réinterroger les modèles ?

P. L. : Nous avons horreur des changements de paradigme, notamment quand on n’est pas un scientifique pointu habitué à se confronter à l’inconnu. Mais, surtout, les utilisateurs de modèles, le plus souvent des béotiens, cherchent une vérité, « LA » bonne réponse, qui leur permettra d’agir dans un sens ou dans l’autre. De plus, dans les situations de crise, les décideurs s’appuient la plupart du temps sur des certitudes, des plans disponibles, sans entendre les réserves des scientifiques, auxquels ils demandent « quelque chose de clair ». Et, souvent, les experts tendent à attendre d’avoir « quelque chose de clair, vérifié, convergent » avant de transmettre une alerte. Je crois l’avoir décelé dans l’épisode météo indiqué précédemment : le modèle d’orage frappant la Corse semblait trop divergent, on préféra garder ce qui convergeait2. Dans le livre « Les Terreurs de l’an 2000 »3, il est écrit en préface : « Les participants ont l’honnêteté de constater que leurs connaissances ne leur permettent en aucune manière de prédire quoi que ce soit. Tout au plus l’ensemble des rapports présentés éliminent les hypothèses extrêmes. » Dès lors, si vous vous retrouvez dans une situation où les hypothèses extrêmes semblent prévaloir, on peut prévoir dans un premier temps une réaction de retrait, d’attente, avant d’obtenir la défense rituelle : « Personne n’aurait pu imaginer une situation pareille ! » Et jusqu’à l’absurde : lors du naufrage du Torrey Canyon, en 1967, un ministre usa de l’expression : « Personne n’aurait pu imaginer qu’un pétrolier puisse couler près des côtes ». Question d’importance désormais existentielle : avons-nous des instances dirigeantes et des scientifiques rompus à se poser des questions sur les limites de la production de connaissances et sur les questions « qui ne se posent pas » ?

C.B. : Je suis tout à fait d’accord sur le fait de distinguer les développeurs de modèles de ceux qui les utilisent, qui ne les comprennent pas toujours et peuvent en avoir une interprétation différente de celle des concepteurs. Dans mes cours, on m’a appris que tous les modèles sont faux, puisque réducteurs de la complexité. Ils ne représentent pas la réalité mais on espère que, s’ils sont bien faits, ils seront utiles à la compréhension et, peut-être, à l’action. Il est vrai aussi que les modèles sont très dépendants de la question et des paramètres de départ. Ainsi, le modèle du R0 (taux de reproduction du virus) utilisé lors de la pandémie de Covid-19 a le même « squelette » que celui développé en 1927 pour le suivi de la grippe, un virus qui ne change pas… Très rapidement, les modélisateurs, voyant la spécificité du coronavirus, bien plus versatile, ont cherché à cumuler un maximum de données afin de réajuster ce modèle. Alors, certes, les experts savent qu’un modèle est toujours faux et qu’ils doivent être vigilants quant à la solidité des paramètres, mais quand on les starifie sur des plateaux TV, ils peuvent tomber dans une simplification qui va ensuite s’amplifier chez les utilisateurs. Cela pose la question de la place que l’on donne à ces productions de vérités, en fonction des incertitudes et de la complexité de la situation.

Durant la première année de pandémie, on a eu le sentiment que le politique nouait une relation ambiguë au modèle. Aide à la décision d’un côté, bête noire à abattre de l’autre. O. Véran, octobre 2020 : « Notre objectif c’est de faire mentir ces courbes, faire mentir ces modèles. » E. Macron, mars 2021 : « Il n’y a pas eu l’explosion qui était prévue par les modèles. » Que s’est-il joué là ?

C. B. : Effectivement, au début de l’épidémie, le modèle est presque survalorisé dans les représentations médiatiques des décisions politiques.Ce seraient les prédictions alarmistes de certains modèles qui auraient par exemple convaincu le gouvernement de confiner. Alors que, évidemment, d’autres critères sont entrés en jeu : les données qui viennent d’Italie, voire de Chine, et les remontées des hôpitaux. Toute une série de signaux ont été agrégés pour construire une décision.

Avec toutes ces remontées de terrain, on aurait presque pu ne pas avoir besoin de modèle ?

C. B. : Bien sûr, et cela montre la fonction sociale du modèle. Cette science moderne du calcul est utilisée par le politique pour rassurer la population : il y a un chemin, nous allons le suivre. Il y a une certitude fondée sur la science, il faut agir. Alors qu’on est en situation d’incertitude : le modèle est simplifié, il ne dispose pas des bons paramètres. Et puis, après un an de vie avec l’épidémie, les limites du modèle, toujours reconnues par les développeurs, sont dévoilées. On suit certes l’évolution de l’épidémie mais pas la santé mentale des enfants qui ne vont pas à l’école ou encore le manque de lits dans les hôpitaux. Tout cela trouve place dans l’espace public, des controverses émergent, le modèle perd de sa puissance. E. Macron peut alors dire que ce ne sont pas les modèles qui vont dicter au gouvernement ce qu’il doit faire. On voit bien l’usage stratégique qui en est fait en fonction de l’agenda, même si ce modèle a pu nourrir les décisions (tout comme ceux du Giec dessinent des scénarios pour l’action publique). Un modèle reste important… quand on n’a pas d’autres éléments. La question n’est pas donc pas l’utilité des modèles mais la place qu’on leur assigne et la compréhension de ce qu’ils peuvent apporter, de leurs limites et de leur bon usage.

P. L. : Goethe écrivait : «Tout fait est déjà une théorie.4 »Traduisez : quand je collecte des données, je suis déjà dans un univers mental particulier et je dispose de certains outils. Je les choisis dans un certain contexte, elles ne sont pas la vérité. Dans une situation peu complexe, le modèle peut fonctionner mais, en situation critique, il peut déraper, dysfonctionner. Et si personne n’est capable de demander aux concepteurs de bousculer leurs hypothèses, on va dans le mur. J’aime bien la réflexion d’un ministre de la Santé américain, en 1976, sur la grippe porcine : « Ce n’est pas qu’on n’avait pas les réponses. On ne savait pas quelles questions poser. » Quand un pilote de crise est capable d’une telle réflexion, vous avez déjà franchi un bon pas. Un jour, je suis intervenu à l’Institut Pasteur. C’était passionnant, parce qu’il y avait à la fois des scientifiques de haut niveau et des dirigeants qui interrogeaient la validité des hypothèses. Une telle initiative, visant à identifier des questions qu’on ne se pose pas habituellement, pour discerner quelques points permettant le moment venu de changer de cartographie mentale, c’est remarquable. Mais c’est un exercice astreignant. Culturellement, nous ne sommes pas du tout prêts. Il y a donc une exigence de qualité scientifique fondamentale chez ceux qui développent les modèles et une exigence de capacité de pilotage en situation inconnue. Or, entre les deux, trop de médias cherchent uniquement un titre accrocheur.

C.B. : La question des données est fascinante et complexe. Prenons la question de l’air, par exemple. Depuis que l’on a des capteurs, nous enregistrons des éléments jusque-là non identifiés et révélons de nouveaux phénomènes. Reste à savoir ce que l’on mesure, puisque chaque prise de données est elle-même une forme de réduction de la complexité ambiante. Je pense aussi à l’étang de Berre où, suite à la mobilisation de riverains et d’élus locaux, de nombreuses études ont été menées sur l’impact sanitaire des cocktails de pollution industrielle. Conclusion : impossible d’affirmer qu’il y a bien un effet, parce que les résultats sont trop incertains. Reste que, de cette expérience, un enjeu a émergé : qu’a-t-on mesuré ? Comment ? Quelles questions ont été posées et avec quel modèle y a-t-on répondu ? Car, si la mesure est nécessaire, elle reste, elle aussi, une forme réduite de la complexité, surtout dans les situations de troubles à expositions multiples. Il faut en avoir conscience quand on produit des données. Alors, quant à imaginer que l’on va tout « dataifier », créer des avatars numériques du monde ainsi capturé dans nos données…Eh bien, non.

Dans un article sur le risque de cancers des travailleurs dans l’industrie du nucléaire5, ses auteures rappellent que les normes d’exposition sont fixées selon un ancien modèle, qui fonctionne toujours sur le paradigme « c’est la dose qui fait le poison » (plus la dose de radiation est forte, plus le risque de cancer est grand). Sauf que l’on sait aujourd’hui que de faibles doses peuvent avoir de grands effets. Sans parler de lobby ou de manipulation, on voit bien qu’il est parfois difficile de changer de modèle. Pourquoi ?

CB : Un modèle est aussi un outil qui circule, et il est d’autant plus connu et légitime qu’il est utilisé par beaucoup de monde. Reste qu’il tourne dans des contextes où les gens n’en sont pas experts. Simples utilisateurs, ils savent sur quel bouton appuyer, ils disposent du résumé du résumé de ce qu’a produit le modèle, sans précision aucune quant à ses hypothèses, ses incertitudes, etc. C’est donc une sorte de boîte noire. Cet outil prend ensuite place dans la société et sert de fondement à des réglementations, des normes, du droit, des usages. Nous sommes là dans un système sociotechnique. Et puis, on peut parfois parler de conflits d’intérêts : certaines personnes ou organisations font de l’argent avec tel modèle plutôt qu’avec tel autre ; certains sont protégés grâce aux modèles et d’autres, au contraire, en sont les perdants, comme ces travailleurs du nucléaire. Des intérêts se cristallisent donc autour du modèle tel qu’il est socialement inscrit, et cela rend sa remise en cause compliquée. Cela demande des controverses extrêmement longues et fortes et des rapports de force solidement constitués capables de dire : non seulement ce modèle est faux, mais on doit s’en débarrasser. Ensuite, il faut pouvoir mettre un autre modèle en place ! Ce n’est pas si facile, cela demande beaucoup de travail, de consultations, de négociations et une majorité agissante efficace, capable de transformer la façon dont le modèle s’est inscrit dans la vie sociale. Pour le nucléaire, étant donné la situation internationale énergétique actuelle et le débat sur les énergies vertes, cela va être compliqué de bouger.

P. L. : Absolument d’accord. Cela m’évoque l’histoire du PCB6 remplacé par une autre substance qui a l’avantage énorme de… ne pas avoir été étudiée. Au moins, on a tué le risque PCB qui était devenu médiatiquement trop important. Cette petite histoire, issue d’un transformateur dans un sous-sol à Reims, a quand même coûté vingt milliards de francs et donné lieu à décision européenne.

Étant donné la complexification, l’interdépendance, la multiplication des crises, les modélisateurs envisagent-ils leur métier autrement ?

C. B. : De nouveaux développements émergent. Ils consistent à collecter le plus de données possible pour rendre les modèles plus pertinents. Par exemple, pour le Covid, l’utilisation des données des téléphones portables ou des capteurs sur les écoliers, afin de retracer plus finement le déplacement des personnes et mieux comprendre la transmission du virus. Mais, il y a un corollaire à ce type de pratique dite de « data driven »(pilotée par les données). Car, là, plus besoin de modélisateur au sens analytique. Plus besoin d’hypothèses, plus besoin de comprendre, exit les épidémiologistes, les biologistes, les mathématiciens. Dans cette approche adossée à l’intelligence artificielle, la vérité et la prédiction vont sortir des données. Il suffit d’avoir de bons informaticiens pour les traiter. C’est utile, mais cela ne questionne pas ce qu’on fait si un virus émerge et que les données sont absentes. Se développe également une autre approche, consistant à travailler de façon plus participative, notamment sur des pollutions par des cocktails chimiques. Ainsi, l’épidémiologie participative (épidémiologie populaire) tente de recueillir d’autres formes de données. Par exemple, au sein du Giscop84, Groupement d’Intérêt Scientifique sur les Cancers d’Origine Professionnelle, à Avignon, des équipes pluridisciplinaires de sociologues, cancérologues, biologistes, statisticiens collaborent avec des médecins et retracent l’histoire professionnelle des personnes. Un travail de fourmi dans les sources, pour identifier telle année, tel type de poste, tel type de solvants. Cet énorme travail de long terme offre d’autres types de données que celles des téléphones portables. Je ne cherche pas à opposer les deux, chacune va répondre à des questions différentes.


  1. L’entretien a été réalisé avant la tempête en Corse de l’été 2022.
  2. Patrick Lagadec : « Expertiser, alerter, piloter au temps du chaotique », 14 09 2022, https://www.patricklagadec.net/patrick-lagadec-expertiser-alerter-piloter-au-temps-du-chaotique/
  3. Les Terreurs de l’an 2000, ouvrage collectif, préface de George Suffert, Hachette, Paris, 1976, p. 11.
  4. Karl Jaspers, La Bombe atomique et l’Avenir de l’homme, Buchet-Chastel, Paris, 1963, 708 pages, p. 85-86. Dans la même ligne, le vocabulaire de la philosophie précise : « Fait : Ce qui est ou ce qui arrive en tant qu’on le tient pour une donnée réelle de l’expérience sur laquelle la pensée peut faire fond. La notion de fait, quand on la précise, se ramène à un jugement d’affirmation sur la réalité́ extérieure.(Seignobos et Langlois, Introduction aux études historiques, p.156). Ce terme a donc essentiellement une valeur appréciative », dansA. Lalande, Vocabulaire technique et critique de la philosophie, PUF, Paris, 1976. p. 337.
  5. Laura Barbie et Soraya Boudia, « Circulez, il n’y a rien à voir. Modèles, incertitudes et santé au travail dans l’industrie nucléaire », dans Terrains & Travaux n° 38, 1er semestre 2021. https://www.cairn.info/revue-terrains-et-travaux-2021-1-page-95.htm
  6. Christelle Gramaglia et Marc Babut, « L’expertise à l’épreuve d’une controverse environnementale et sanitaire : la production des savoirs et des ignorances à propos des PCB du Rhône (France) », Vertigo, septembre 2014. https://journals.openedition.org/vertigo/15067#tocto1n5

Tags: ,




Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Back to Top ↑