Le biais idéologique dans la recherche scientifique : quand les opinions personnelles influencent les résultats


Résumé pour les pressés une étude choc montre que les opinions personnelles des chercheurs peuvent influencer leurs résultats, même avec les mêmes données.

L’expérience : 71 équipes (158 chercheurs) analysent les mêmes données pour savoir si l’immigration réduit le soutien aux aides sociales.

Résultat : les équipes pro-immigration trouvent que l’immigration augmente ce soutien ; les équipes anti-immigration trouvent l’inverse.

Explication : pas de triche, mais des choix techniques différents (comment mesurer, quels pays inclure, etc.). Seulement 5 choix expliquent déjà les 2/3 des différences.

Conclusion générale : sur les sujets politiques sensibles (immigration, climat, vaccins…), les convictions des chercheurs orientent subtilement leurs méthodes et donc leurs conclusions.

Application au COVID en France : l’étude EPI-PHARE 2025 (Semenzato) conclut que les vaccins ARNm réduisent la mortalité. Mais :

  • Toutes les études EPI-PHARE sont pro-vaccin, aucune ne critique les vaccins ni ne défend les traitements précoces.
  • Les données brutes ne sont pas accessibles (confidentialité), impossible de vérifier indépendamment.
  • Le directeur (Mahmoud Zureik) présente ces études comme un outil contre la « désinformation » vaccinale.
  • L’étude Semenzato a reçu plusieurs critiques sérieuses pour biais méthodologiques (échantillonnage, confusion, etc.).

Message final : les scientifiques sont humains. Pour faire confiance à une étude controversée, il faut regarder non seulement le résultat, mais aussi qui l’a faite, avec quelles méthodes, et si on peut vérifier soi-même. Plus de transparence = plus de crédibilité.

Voir le résumé vidéo de l’article : 

 

*** Analyse détaillée ***

Imaginez : 71 équipes de chercheurs reçoivent exactement les mêmes données et doivent répondre à la même question : « Est-ce que l’immigration diminue le soutien des gens aux aides sociales (comme les allocations chômage ou les soins de santé gratuits) ? »

Normalement, on s’attendrait à ce que tout le monde arrive à peu près à la même conclusion. Mais non ! Les résultats vont dans tous les sens : certains trouvent que l’immigration augmente ce soutien, d’autres qu’elle le diminue fortement, et d’autres encore qu’elle n’a aucun effet.

Une nouvelle étude, publiée le 1er janvier 2026 dans la revue Science Advances, explique pourquoi. Les auteurs, George Borjas (économiste de Harvard) et Nate Breznau, montrent que les opinions personnelles des chercheurs sur l’immigration jouent un rôle important. En résumé : les chercheurs favorables à l’immigration obtiennent souvent des résultats qui montrent que l’immigration est plutôt positive pour la société, et ceux qui y sont opposés obtiennent l’inverse.

Ce n’est pas de la triche. Personne n’a falsifié les données. Le problème vient des choix techniques que chaque équipe fait pendant l’analyse.

biais

 

L’expérience et sa configuration

Cette découverte vient d’une expérience très spéciale organisée en 2022. 158 chercheurs, répartis en 71 équipes, ont tous reçu les mêmes données (issues d’enquêtes internationales sur les opinions des gens dans de nombreux pays). Avant de commencer, on leur a demandé leur avis personnel : « Faut-il durcir ou assouplir les lois sur l’immigration ? »

La plupart étaient plutôt favorables à l’immigration (presque la moitié voulait assouplir les lois). Très peu étaient contre.

Ensuite, chaque équipe a analysé les données à sa façon. Au total, elles ont testé plus de 1 200 modèles statistiques différents. Et les résultats étaient très dispersés.

biais

 
Le résultat clé, expliqué simplement
  • Les équipes favorables à l’immigration trouvaient en moyenne que l’immigration augmente un peu le soutien aux aides sociales.
  • Les équipes opposées trouvaient qu’elle le diminue.
  • Les équipes au milieu ne trouvaient presque aucun effet.

La différence entre les équipes pro et anti est énorme : elle correspond à un écart très visible dans les résultats.

biais

 
Pourquoi cette différence ?

Les chercheurs n’ont pas tous fait exactement les mêmes choix techniques. Par exemple :

  • Certains ont regroupé plusieurs questions sur les aides sociales en une seule note globale.
  • Certains ont mesuré l’immigration par le pourcentage d’étrangers vivant dans un pays, d’autres par le nombre d’arrivants récents.
  • Certains ont inclus tous les pays disponibles, d’autres non.
  • Certains ont utilisé les données les plus récentes (2016), d’autres sont restés sur les anciennes.

Ces choix paraissent anodins, mais ils changent beaucoup le résultat final.

Et, voici le plus important : les équipes favorables à l’immigration choisissaient presque toujours les options qui donnaient des résultats positifs. Les équipes opposées choisissaient presque toujours celles qui donnaient des résultats négatifs.

Les auteurs ont calculé que seulement cinq de ces choix techniques expliquent déjà les deux tiers de toute la différence entre les groupes pro et anti.

Petite analogie : imaginez que vous demandez à plusieurs cuisiniers de faire une soupe avec exactement les mêmes ingrédients. Mais, chacun peut choisir comment couper les légumes, combien de sel mettre, à quel feu cuire… À la fin, certaines soupes seront très salées, d’autres très fades. Curieusement, les cuisiniers qui aiment le salé mettent plus de sel, ceux qui préfèrent le doux en mettent moins.

Ici, les « recettes » (les choix techniques) sont influencées par les goûts personnels des chercheurs.

 

Une erreur dans l’étude d’origine

Les organisateurs de l’expérience originale avaient conclu que l’opinion personnelle des chercheurs n’avait pas d’effet. Pourquoi ? Parce qu’ils avaient mis tout dans la même grande équation statistique : l’opinion plus tous les choix techniques.

Mais Borjas et Breznau expliquent que c’est une erreur. Les choix techniques ne sont pas des éléments neutres à « corriger ». Ce sont précisément le moyen par lequel l’opinion personnelle influence le résultat. Si on les met dans l’équation comme s’ils étaient indépendants, on cache le vrai problème.

 

Est-ce que ces choix « biaisés » étaient moins bons ?

Pendant l’expérience, les équipes se sont notées entre elles (sans savoir qui avait fait quoi). Résultat : les modèles venant des équipes très pro ou très anti ont reçu des notes plus basses que ceux des équipes modérées. Les pairs trouvaient que les choix extrêmes étaient souvent moins convaincants.

 

Pourquoi c’est important ?

Cette étude montre que même dans la recherche sérieuse, les opinions personnelles peuvent influencer les conclusions, sans que ce soit intentionnel. Ça arrive surtout sur des sujets sensibles et politiques (immigration, vaccins, climat, etc.).

L’étude s’ajoute aux préoccupations en métascience comme le p-hacking, le biais de publication et le biais de confirmation. Elle avertit que la recherche pertinente pour les politiques, souvent motivée par des chocs réels, peut amplifier l’influence idéologique en raison des contraintes temporelles et de l’attrait narratif. Alors que l’IA révolutionne l’analyse, elle pourrait exacerber le biais (via les données d’entraînement) ou l’atténuer (par exemple, en détectant les erreurs). Les auteurs plaident pour le suivi des flux de travail scientifiques afin d’exposer la subjectivité.

Cela ne veut pas dire que toute la science est fausse ! Mais ça rappelle qu’il faut être très prudent, surtout quand les résultats servent à prendre des décisions importantes pour la société.

 

Réaction en ligne : discussions sur X mettent en lumière un scepticisme plus large

L’article a suscité un vif intérêt sur X (anciennement Twitter), où @ValerioCapraro, professeur associé à l’Uni Milan-Bicocca, a posté le 5 janvier 2026 : « C’est profondément troublant. Les chercheurs sont plus susceptibles de choisir des modèles statistiques dont les résultats s’alignent sur leurs a priori idéologiques… Laissez-moi répéter : ils ont analysé littéralement le même ensemble de données. »  

Le post a déclenché des débats sur l’intégrité scientifique.

Les réponses exprimaient de la frustration face aux biais dans des domaines comme les études de genre, la théorie queer et la recherche sur le COVID. @Theo_TJ_Jordan a commenté : « C’est ‘La Science’. C’est comme ça que le genre, queer et COVID se sont produits. » Le statisticien @FamedCelebrity a lié cela à des failles systémiques : « Le problème est profond : les mesures de succès de la science sont irrémédiablement défectueuses. »  @cinder a averti d’un p-hacking sous-estimé, tandis que @wingod a ajouté philosophiquement : « C’est la science. Toute activité humaine est affectée par le biais humain. » Le sociologue @feldmann_k l’a lié aux dynamiques de pouvoir : « Les sujets politiquement contestés sont recherchés et interprétés selon les intérêts des acteurs puissants. »

Un post de Dr Steven Quay (@quay_dr) du 6 janvier 2026 expliquait : « Ici, les mêmes données ont été ‘tordues’ pour soutenir l’idéologie préalable… Clairement, certains domaines d’investigation manquent d’approches méthodologiques de vérité fondamentale. Le travail dans ces domaines doit s’arrêter pour résoudre cette crise avant de demander plus de fonds du HHS. » Cela reflète les appels croissants à la réforme au milieu d’une érosion de la confiance publique en la science.

Le buzz en ligne souligne la pertinence de l’article : dans une ère de débats polarisés sur l’immigration, le climat et la santé, reconnaître le biais idéologique est crucial pour restaurer la crédibilité.

 

Application des résultats à l’étude Semenzato et al d’EPI-PHARE

Les conclusions de Borjas et Breznau sur le biais idéologique s’appliquent directement à l’étude EPI-PHARE de 2025 par Laura Semenzato et al., publiée dans JAMA Network Open, qui a examiné la mortalité toutes causes sur 4 ans chez 18-59 ans en France et a trouvé des taux plus bas chez les vaccinés contre le COVID-19 par ARNm comparés aux non-vaccinés.

 

Étant donné la nature politiquement chargée de la vaccination contre le COVID-19 – souvent divisée entre interventionnisme en santé publique et liberté individuelle – les conclusions nulles ou protectrices pourraient découler de choix de conception endogènes influencés par les a priori des chercheurs, tels que les critères d’appareillement d’échantillons, l’ajustement pour des facteurs de risqsues comme le statut socio-économique ou les comorbidités, ou les fenêtres temporelles pour l’évaluation de la mortalité.

Si l’équipe EPI-PHARE, affiliée aux autorités sanitaires françaises promouvant la vaccination, penchait vers des sentiments provaccins, elle pourrait donc avoir gravité vers des spécifications produisant des résultats rassurants (par exemple, en soulignant les bénéfices à long terme tout en minimisant les risques à court terme), reflétant comment les équipes pro-immigration dans l’expérience sélectionnaient des modèles soutenant la cohésion sociale.

Bien que l’étude paraisse robuste avec sa cohorte de 28 millions, les revues par les pairs pourraient sous-évaluer des analyses alternatives révélant des risques de la vaccination, soulignant le besoin de flux de travail transparents et d’analyses multivers pour atténuer un tel biais dans la recherche en santé publique à enjeux élevés. A ce jour, cette étude a fait l’objet d’au moins trois courriers « commentaires » à l’éditeur afin d’expliquer ses trop nombreux biais. (2)

biais

De plus, d’autres études EPI-PHARE, comme celles sur l’efficacité des vaccins contre les hospitalisations (2022-2025), les risques de myocardite (montrant un fardeau faible malgré des associations), ou les déterminants de la vaccination chez les enfants (2024), montrent systématiquement un biais pro-vaccination, servant potentiellement les intérêts de l’État en soutenant les campagnes vaccinales sans critiquer les alternatives.

Aucune étude EPI-PHARE n’a été trouvée qui remette en cause l’efficacité vaccinale ou favorable aux traitements précoces comme l’hydroxychloroquine (HCQ) ou l’ivermectine ; au contraire, les recherches en ligne ne révèlent que des « travaux pro-vax », malgré des efforts pour identifier des exceptions. Cela est accentué par les positions publiques de Mahmoud Zureik, directeur d’EPI-PHARE, qui a qualifié l’étude Semenzato de moyen pour « mettre fin à la désinformation sur les vaccins ARNm » alors qu’il n’a pas critiqué publiquement les biais du LancetGate (l’affaire Surgisphere sur l’HCQ rétractée en 2020).

Zureik s’est opposé aux traitements précoces comme l’HCQ ou l’ivermectine dans des contextes de surveillance vaccinale alors que l’IHU Méditerranée du Pr Raoult montrait des améliorations statistiquement significatives et que le site c19early a compilé leur efficacité dans une méta-analyse générale.

Enfin, les données d’EPI-PHARE, issues du Système National des Données de Santé (SNDS), ne sont pas rendues publiques pour des motifs de confidentialité, empêchant toute vérification indépendante – ce qui contredit les principes scientifiques de base de reproductibilité et l’Executive Order 14303 (2025) du président Trump, qui exige la transparence des données, la communication des incertitudes et la disponibilité publique des analyses pour restaurer la confiance dans la science, soulignant un conflit entre protection de la vie privée et intégrité scientifique.

Outre la possibilité que l’étude Semenzato soit fausse pour des raisons statistiques ou de biais de cadrage des données, cette analyse montre qu’on ne peut pas exclure un biais lié aux convictions des chercheurs et à leur environnement institutionnel – exactement comme dans l’étude sur l’immigration. 

Quand de telles études influencent les décisions en santé publique, il donc d’autant plus important de s’assurer de la transparence et de la réplicabilité des analyses.

 

En conclusion

Cette recherche sur le biais idéologique nous rappelle une chose simple : les scientifiques sont des êtres humains. Sur des sujets qui touchent à la politique ou aux valeurs, leurs opinions peuvent influencer les résultats, pas par malhonnêteté, mais par de petits choix techniques qui semblent anodins.

Pour retrouver la confiance du public, il faudrait plus de transparence : partager les données brutes quand c’est possible, tester plusieurs méthodes différentes, et accepter que d’autres chercheurs refassent les analyses de leur côté.

C’est une leçon importante pour tout le monde : quand on lit une étude scientifique sur un sujet controversé, il vaut mieux se demander non seulement « Qu’est-ce qu’elle dit ? » mais aussi « Qui l’a faite, et avec quelles méthodes possibles ? »

BIAIS

 

(1) Parmi toutes les raisons qui expliquent pourquoi les équipes pro-immigration et anti-immigration arrivent à des conclusions opposées, les deux tiers de cette différence s’expliquent par seulement cinq choix techniques différents qu’elles ont faits dans leur analyse. C’est une façon de dire que ces choix méthodologiques (influencés par les opinions personnelles des chercheurs) sont responsables de la plus grande partie de la divergence des résultats, même si tout le monde utilisait exactement les mêmes données.

(2) 11 décembre 2025 : Problèmes méthodologiques et d’interprétation concernant l’étude sur la vaccination contre la COVID-19 par ARNm et la mortalité toutes causes confondues à 4 ans en France

Xavier Azalbert, MSc, MSc, Christian Perronne, MD, PhD, Martin Zizi, MD, PhD |

Semenzato et al., examinant la mortalité toutes causes confondues à 4 ans chez les adultes français âgés de 18 à 59 ans après la vaccination contre la COVID-19 par ARNm, rapportent un rapport de risque pondéré (RRP) de 0,75 en faveur des personnes vaccinées (VI). Des biais méthodologiques et des incohérences soulèvent des doutes quant à sa validité.

1. Biais d’échantillonnage et de cadrage : Le ratio de 79 % de personnes vaccinées (VI) contre 21 % de personnes non vaccinées (UI) dans la cohorte (22,7 millions contre 5,9 millions) ne correspond pas aux taux nationaux (1), où 88 % des personnes âgées de 18 à 59 ans (2) avaient reçu au moins une dose en octobre 2021, ce qui implique qu’environ 12 % de personnes n’étaient pas vaccinées (UI). L’étude recense pourtant 5,9 millions de personnes atteintes d’insuffisance urinaire (environ 86 %), alors qu’elle n’inclut qu’environ 45 % des personnes vaccinées, ce qui introduit des biais de cadrage (la cohorte ne représente pas la population générale) et d’échantillonnage, favorisant les sous-groupes d’insuffisance urinaire (25 % dans l’étude contre 12 % au niveau national) présentant des risques potentiellement plus élevés (personnes hésitantes et hétérogènes). Ces sous-groupes aggravent les problèmes : la mortalité liée à l’insuffisance urinaire atteint 33 % dans l’étude à court terme et 25 % au total (tableau supplémentaire 2 : 24,9 % de décès contre 20,7 % de survivants), ce qui suggère une sélection non aléatoire. L’inclusion exige un remboursement en 2020, excluant 10 à 15 % de personnes en meilleure santé, enrichissant l’échantillon en comorbidités et biaisant les interactions vaccinales.

2. Biais de confusion et de classification : les ajustements pour les données démographiques et les comorbidités via des modèles de Cox laissent subsister un biais de confusion résiduel. Le tableau électronique 2 montre que les personnes décédées présentaient des risques plus élevés (par exemple, alcoolisme : 15,3 % contre 1,3 % ; cancers : 11,3 % contre 1,4 %). Seules 1,7 % des personnes avaient déjà été hospitalisées pour la COVID-19, pourtant les personnes non vaccinées présentent une mortalité liée à la COVID plus élevée (rapport de mortalité pondéré : 0,26). Des facteurs non mesurés, comme le mode de vie, persistent. Les données sur les causes de décès risquent d’être sous-déclarées.

3. Biais liés au temps immortel et à l’information : un délai de suivi de 6 mois corrige le biais lié au temps immortel, mais des effets résiduels peuvent persister. Les données administratives (SNDS, etc.) sous-estiment les affections non remboursées, ce qui biaise différemment les groupes.

4. Biais de détection et de déclaration : le tableau électronique 5 révèle des changements dans les causes de décès : les personnes non vaccinées présentent 6,4 % de décès liés à la COVID contre 28 % de décès liés à des tumeurs ; les personnes vaccinées présentent 1,6 % de décès liés à la COVID contre 34,4 % de décès liés à des tumeurs. Le ratio tumeur/COVID est de 4,41 dans l’UI contre 21,89 dans la VI (soit 4,96 fois plus élevé) ; le ratio circulation/COVID est de 1,47 contre 6,66. L’augmentation de la posologie après la deuxième dose suggère des biais de détection (les VI ont davantage recours aux soins) ou de déclaration (sur-attribution de la COVID dans l’UI), impliquant un « transfert » de cause sans investigation de causalité, ce qui soulève des préoccupations oncologiques potentielles. Les modèles de Cox pour les résultats spécifiques à la cause présentent un risque de biais en situation de risques concurrents, violant les hypothèses de censure non informative et surestimant les risques, en particulier chez les cohortes plus jeunes. Sans adaptations telles que les modèles de Fine-Gray, les analyses stratifiées peuvent interpréter à tort des artefacts comme des associations.

5. Écarts avec les taux nationaux : La mortalité étudiée (4 324/M VI ; 5 503/M UI) diffère des moyennes par tranche d’âge (environ 1 710/M par an, environ 6 412/M sur 3,75 ans), avec un taux global de 4 569/M (71 % du taux attendu). Cette sous-représentation suggère un biais d’échantillonnage en faveur des individus en meilleure santé ; les comparaisons avec d’autres études divergent, ce qui remet en question la calibration.
6. Validité externe : Le contexte spécifique français limite la généralisation des résultats ; l’absence de partage des données empêche leur vérification.

Ces biais compromettent les conclusions. Nous demandons les réponses des auteurs, des analyses de sensibilité et l’accès aux données.

Ce commentaire a été édité par JAMA – il demandait en sus la mise en place d’un avertissement de l’éditeur pour des raisons de désinformation et d’impact sur les politiques sanitaires.

 





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *