Les échecs des mécanismes de contrôle scientifique : quand les biais cognitifs minent la confiance en la science


Dans un monde où les slogans comme « Suivez la science » ou « je crois en la science » ont dominé les débats publics, particulièrement pendant la pandémie de Covid-19, une publication récente dans la revue Synthese vient remettre en question l’idée d’une déférence inconditionnelle envers la science. L’article de Rico Hauswald, intitulé Échecs de contrôle, dynamiques de consensus dégénératives et déférence excessive envers la science, publié le 6 janvier 2026, argue que les non-scientifiques ont parfois de bonnes raisons de moduler leur confiance envers les consensus scientifiques, surtout lorsque des dysfonctionnements dans les mécanismes de « gardiennage » (gatekeeping) ou contrôle des communautés scientifiques sont évidents. Cette étude met en lumière comment ces échecs peuvent mener à des consensus « dégénératifs », induisant des biais cognitifs qui altèrent la perception publique de la science. Le lien est aussi fait avec une autre étude récente sur les biais idéologiques en recherche, et examinerons spécifiquement le cas de l’étude EPI-PHARE, souvent citée dans les médias sans que les médias ne mentionnent ses carences et biais, pour illustrer comment ces phénomènes érodent la croyance en la science.

Pensée critique

Résumé de l’article de Rico Hauswald : les échecs du contrôle et les consensus dégénératifs

Hauswald définit le gardiennage scientifique comme le contrôle sur qui et quoi participe au discours scientifique. Ce mécanisme, essentiel pour maintenir la qualité et l’intégrité de la recherche, peut échouer de deux façons principales : être trop restrictif (excluant des théories ou méthodes méritantes) ou trop permissif (laissant entrer des éléments non méritants). Ces échecs nuisent à la diversité épistémique, cruciale pour une science robuste, en favorisant des échanges d’idées pluralistes qui contrebalancent les biais individuels.

L’auteur identifie quatre schémas dégénératifs de formation ou de révision de consensus :

  • Consensus prématuré : quand un gardiennage ou contrôle trop restrictif exclut des alternatives valables, gonflant artificiellement le statut des théories dominantes. Exemple : le « narratif dominant » sur le Covid-19, où des dissidents scientifiques ont été censurés ou déplateformés, menant à un consensus rapide mais fragile.
  • Consensus tardif : un gardiennage trop permissif prolonge des alternatives non méritantes, retardant un consensus légitime. Cas historique : le lien tabac-cancer, retardé par des tactiques industrielles finançant des recherches biaisées.
  • Révision prématurée de consensus : des défis non méritants, souvent politiquement motivés, sont pris au sérieux, comme dans le lyssenkisme soviétique qui a challengé la synthèse évolutionniste moderne.
  • Révision tardive de consensus : un gardiennage/controle restrictif bloque des preuves valables, comme la théorie des plaques tectoniques d’Alfred Wegener, rejetée pendant des décennies.

Hauswald argue que la déférence à la science – comprise comme une inférence de la vérité d’une proposition à partir d’un consensusdoit être ajustée si des preuves de ces dysfonctionnements existent. Les non-experts, bien qu’incapables d’évaluer les preuves de premier ordre (domaine-spécifiques), peuvent utiliser des preuves de second ordre (indépendantes du domaine), comme des pressions sociales, des incitations financières ou des précédents historiques, pour détecter ces échecs. Cela évite l’« arrogance épistémique » tout en promouvant une vigilance équilibrée.

 
Les biais cognitifs induits par ces échecs

Les dysfonctionnements de gardiennage/contrôle ne se limitent pas à des erreurs structurelles ; ils induisent des biais cognitifs qui se propagent au sein des communautés scientifiques et du public. Hauswald évoque implicitement plusieurs d’entre eux :

  • Biais de confirmation : un gardiennage restrictif renforce les théories dominantes en excluant les contre-preuves, encourageant les scientifiques à ne voir que ce qui confirme leurs a priori. Cela mène à un « groupthink » (pensée de groupe), où la cohésion sociale prime sur la critique, comme observé dans le débat Covid-19.
  • Biais de pensée partisane (myside) : les pressions sociales ou idéologiques poussent à ignorer les alternatives, créant une sous-détermination des données (underdetermination), où des interprétations rationnelles divergent mais sont filtrées par des biais collectifs.
  • Biais d’ancrage et d’ajustement : un consensus prématuré ancre une croyance publique trop tôt, rendant difficile toute révision ultérieure, même face à de nouvelles preuves.
  • Biais d’autorité excessive : le public, encouragé à « suivre la science » sans nuance, développe une déférence aveugle, ignorant que les consensus peuvent être dégénératifs. Cela érode la confiance quand les failles émergent, favorisant un scepticisme généralisé.

Ces biais ne sont pas anodins : ils transforment la science en un outil rhétorique, minant sa crédibilité à long terme.

 
Lien avec l’étude sur les biais idéologiques : une forme de gardiennage défaillant

Cette analyse résonne fortement avec une étude récente analysée par France-Soir dans l’article intitulé « Le biais idéologique dans la recherche scientifique : quand les opinions personnelles influencent les résultats ». Basée sur une recherche de George Borjas et Nate Breznau dans Science Advances, cette étude examine comment les convictions personnelles des chercheurs – ici sur l’immigration – influencent les résultats via des choix méthodologiques subjectifs. Sur 158 chercheurs analysant les mêmes données, les équipes pro-immigration concluaient à un effet positif sur le soutien aux aides sociales, tandis que les anti-immigration trouvaient l’inverse. Le biais opère inconsciemment : les chercheurs sélectionnent des méthodes alignées sur leurs opinions, sans falsification directe.

Ce biais idéologique est une manifestation du gardiennage permissif ou restrictif décrit par Hauswald. Il permet l’entrée de narratifs biaisés dans le discours scientifique, menant à des consensus dégénératifs sur des sujets polarisés comme le climat, les vaccins ou l’immigration. Les biais cognitifs communs incluent le biais de confirmation (choix de modèles favorisant les a priori) et le p-hacking (manipulation statistique). Comme Hauswald, les auteurs plaident pour plus de transparencepartage de données brutes et analyses multivariéespour restaurer la confiance. Sans cela, la science risque de devenir un outil idéologique, érodant la croyance publique en son objectivité.

 
Le cas de l’étude EPI-PHARE : biais médiatiques et érosion de la croyance en la science

Un exemple concret reliant ces analyses est l’étude EPI-PHARE (groupement d’intérêt scientifique ANSM-Cnam), souvent citée dans les médias pour affirmer la sécurité et l’efficacité des vaccins ARNm contre le Covid-19. Une étude récente de Semenzato et al. (2025), publiée dans JAMA Network Open, conclut à une réduction de 25 % de la mortalité chez les vaccinés en France. Pourtant, comme souligné dans l’article de France-Soir, cette étude souffre de biais méthodologiques graves : biais de sélection (ratio vacciné/non-vacciné incohérent avec les taux nationaux), confusion résiduelle (facteurs non mesurés comme le mode de vie), biais temporel immortel, et sous-représentation de la mortalité globale. De plus, les données brutes sont inaccessibles pour des raisons de confidentialité, empêchant toute vérification indépendante.

cas

Ce cas illustre un gardiennage défaillant : EPI-PHARE, dirigée par Mahmoud Zureik, un opposant public aux traitements précoces comme l’hydroxychloroquine, produit systématiquement des résultats pro-vaccin, sans critique interne ni possibilité de critique externe puisque les données ne sont pas rendues disponibles. Cela suggère un biais idéologique institutionnel, similaire à celui décrit par Borjas et Breznau, où les choix d’appareillage et d’ajustements méthodologiques alignent les conclusions sur une narrative dominante. Médiatiquement, ces études sont amplifiées sans nuance – par exemple, Le Quotidien du Médecin titre « Les vaccins Covid à ARNm sont sûrs à long terme » – induisant un consensus prématuré sur la sécurité vaccinale de ces produits

Les biais cognitifs induits sont profonds :

  • Biais de confirmation médiatique : les médias sélectionnent ces études pour confirmer la narrative officielle, ignorant les critiques (trois commentaires envoyés à l’éditeur demandant des analyses de sensibilité).
  • Biais d’autorité et de déférence excessive : le public, exposé à une science « incontestable », développe une croyance aveugle, mais quand les failles émergent (comme des biais de sélection), cela mène à un scepticisme généralisé, érodant la confiance en la science toute entière.
  • La surmédiatisation d’EPI-PHARE rend les alternatives invisibles, favorisant une pensée de groupe publique où questionner devient « anti-science ».

En reliant à Hauswald, ce cas montre comment un gardiennage permissif (laissant entrer des méthodes biaisées) et restrictif (excluant les vérifications indépendantes) crée un consensus dégénératif, amplifiant les biais cognitifs et minant la croyance en la science.

Un sondage récent publié illustre ce cercle vicieux : selon l’Institut MIS Group (30 novembre 2025), 74 % des Français expriment une défiance envers le gouvernement, 64 % doutent de l’objectivité des médias mainstream, et 51 % sont perméables aux théories du complot, particulièrement en santé.

défiance

Cette boucle – défiance institutionnelle menant au rejet des médias et à l’adoption de narratifs alternatifs – renforce l’érosion de la confiance, comme le prédisent les analyses de Hauswald et de Borjas/Breznau. Pour restaurer la confiance, comme le suggèrent les deux articles, il faut exiger transparence et diversité épistémique – sinon, la science risque de devenir un outil de pouvoir plutôt qu’une quête de vérité.

Cet article appelle à une vigilance accrue : la science n’est pas infaillible, et la moduler n’est pas du déni, mais de la raison. 

D’ailleurs, l’accusation hâtive de « complotisme » est souvent un moyen d’étouffer le débat, alors qu’un scepticisme sain – poser des questions vitales sur les processus scientifiques et autres décisions importantes sur des sujets de santé publique ou d’intérêt général – est une manifestation précoce de la raison, protégeant contre les dérives idéologiques et favorisant un progrès authentique.





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *