Ou la science en temps de crise : la rétractation de l’étude Pradelle et Lega et al. sur l’hydroxychloroquine comme cas d’école des fragilités du contrôle scientifique
Résumé vidéo de l’article
Contexte général : une étude rétractée et les fragilités du contrôle scientifique
La pandémie de COVID-19 a mis à l’épreuve les systèmes de santé à l’échelle mondiale, mais elle a également révélé des fragilités plus profondes dans les mécanismes de production, d’évaluation et de validation du savoir scientifique. L’urgence sanitaire, la pression médiatique et les attentes politiques ont profondément modifié les conditions ordinaires d’examen des travaux de recherche, exposant des vulnérabilités structurelles souvent moins visibles en période normale.
Parmi les épisodes les plus débattus figure l’étude de Pradelle et Lega et al., publiée en 2024 dans la revue Biomedicine & Pharmacotherapy. Intitulée “Deaths induced by compassionate use of hydroxychloroquine during the first COVID-19 wave: an estimate”, elle avançait que l’utilisation compassionnelle de l’hydroxychloroquine (HCQ) lors de la première vague de COVID-19 aurait été associée à environ 17 000 décès.

Peu après sa publication, l’article a fait l’objet d’une note de l’éditeur (février 2024) mettant en question sa fiabilité puis a été rétracté (aout 2024) pour des raisons méthodologiques majeures, remettant en cause la solidité de ses conclusions. Cet épisode s’inscrit dans un contexte plus large de réflexion sur les défaillances du « gardiennage scientifique », telles qu’analysées par le philosophe des sciences Rico Hauswald dans un article publié le 6 janvier 2026 dans la revue Synthese. Les enjeux de cette analyse ont été présentés et discutés dans un précédent l’article : « les échecs des mécanismes de contrôle scientifique ».

Hauswald y décrit comment certains biais cognitifs, combinés à des mécanismes éditoriaux insuffisamment robustes en période de crise, peuvent conduire à la diffusion de résultats fragiles, ensuite amplifiés dans l’espace médiatique et public.
Dans cet article, nous nous appuyons également sur l’analyse détaillée développée par un utilisateur de la plateforme X, connu sous le pseudonyme @Omega_Arta. Sans revendiquer de statut académique, celui-ci a mené un travail critique approfondi reposant sur l’examen des sources, des hypothèses et des méthodes employées dans l’étude de Pradelle et Lega et al. Ses tweets, publiés début janvier 2026, mettent en évidence un ensemble de faiblesses structurelles qui expliquent non seulement la rétractation de l’article, mais interrogent également la possibilité même d’une republication dite « assainie » :
1/n
Pour les deux cancres assis près du chauffage au fond de la classe, voici les raisons de la rétractation de l’étude Pradelle/Lega et pourquoi il sera impossible aux auteurs de la republier sans se compromettre.Comme le dirait l’autre : » Vous allez adorer la suite »
🤡🤡🤡 pic.twitter.com/dfKvMLf0QN— Omega_Arta (@Omega_Arta) January 5, 2026
Une estimation controversée
L’étude de Pradelle et Lega et al. visait à estimer le nombre de décès « attribuables » à l’hydroxychloroquine à partir de données observationnelles issues de plusieurs pays. La méthodologie reposait sur la combinaison :
- de taux d’utilisation de l’HCQ,
- de taux de mortalité hospitalière,
- de ratios de risques (odds ratios) issus d’analyses secondaires.
À partir de ces éléments, les auteurs proposaient une estimation globale de surmortalité associée à ce traitement.

Cependant, comme l’a souligné l’analyse critique de @Omega_Arta, cette approche soulevait d’importants problèmes méthodologiques. Ces critiques ont été formalisées de manière indépendante dans une analyse publiée par Fortune Journals, qui met en évidence la construction artificielle du chiffre de « 17 000 décès » par extrapolations successives de ratios statistiques spéculatifs appliqués à des populations hétérogènes.
La revue Biomedicine & Pharmacotherapy a finalement procédé à la rétractation de l’article, invoquant des insuffisances majeures concernant la fiabilité des données utilisées, l’absence de contrôle adéquat des biais de confusion et la fragilité des hypothèses permettant de relier statistiquement l’exposition à l’HCQ à une estimation globale de mortalité.
Si certains observateurs ont évoqué la possibilité d’une republication future sous une forme modifiée, les problèmes soulevés ne relèvent pas de simples ajustements techniques, mais touchent au cœur même du raisonnement causal mobilisé par l’étude.
L’analyse citoyenne de @Omega_Arta : un démontage méthodologique structuré
L’analyse développée par @Omega_Arta repose sur un examen systématique des hypothèses implicites, des méthodes de calcul et des inférences statistiques employées dans l’étude. Elle s’inscrit dans une tradition de critique méthodologique déjà observée lors de débats antérieurs sur certains essais randomisés hospitaliers, notamment l’étude britannique RECOVERY, dont les biais méthodologiques avaient été dénoncés dès 2020 par France-Soir.
Cette démarche est centrée sur la cohérence interne du raisonnement et sur les principes fondamentaux de l’inférence causale. Elle met en évidence des fragilités qui ne relèvent pas d’erreurs marginales, mais de défauts structurels affectant l’architecture même de l’étude.
-
Les conditions d’une version dite « assainie » : une version méthodologiquement acceptable de l’étude impliquerait la reconnaissance explicite du caractère hypothétique et exploratoire de l’analyse, en substituant aux affirmations causales des formulations prudentes telles que “may be associated with” (« peut être associé à »). Elle nécessiterait également une clarification exhaustive des limites des données utilisées, un contrôle rigoureux des biais de confusion et une présentation insistant sur l’ampleur des incertitudes.

Un tel repositionnement transformerait profondément la nature du manuscrit, qui ne pourrait plus prétendre estimer un nombre de décès imputables à l’hydroxychloroquine, mais relèverait d’une réflexion méthodologique sur les risques liés à l’extrapolation de données observationnelles hétérogènes.
-
L’impossibilité logique d’une republication accusatoire : même après suppression de certaines données controversées, notamment celles issues de Belgique, le problème central demeure inchangé : le passage d’associations statistiques à une affirmation de causalité reste méthodologiquement infondé.
Comme le résume @Omega_Arta : « Ce type d’approche ne peut pas prouver une causalité réelle ni comptabiliser des morts réelles simplement par multiplications successives de ratios spéculatifs. »
Toute tentative de maintenir une conclusion accusatoire supposerait la réintroduction d’hypothèses causales non démontrées, recréant les conditions mêmes ayant conduit à la rétractation initiale.

-
Fragilités structurelles persistantes : au-delà des données, l’analyse met en évidence la faiblesse de la question scientifique posée, l’absence de validation externe du modèle employé et le caractère non falsifiable de certaines hypothèses. L’illusion de précision numérique constitue un point critique central : l’annonce d’un chiffre global confère une apparence de rigueur quantitative à un résultat dont l’incertitude réelle est considérable.

Enseignements épistémologiques : science, biais cognitifs et décision en temps de crise
L’épisode de l’étude Pradelle et Lega et al. constitue un cas d’étude révélateur des tensions qui traversent la production du savoir scientifique en situation de crise.
-
Biais cognitifs et consensus prématuré : le biais de confirmation peut conduire à privilégier des résultats conformes à une narrative dominante, tandis que le biais d’autorité favorise l’acceptation rapide de conclusions issues de revues reconnues. Ces mécanismes contribuent à la formation de ce que Rico Hauswald qualifie de consensus dégénératif.

- Déplacement du débat et biais d’autorité inversé: lorsque certaines conclusions sont contestées, la discussion tend parfois à se déplacer du contenu des arguments vers la légitimité perçue de ceux qui les formulent. Ce biais d’autorité inversé appauvrit le débat scientifique en détournant l’attention des questions centrales de validité et de robustesse méthodologique.
- Modélisation, illusion de précision et responsabilité scientifique : attribuer un nombre précis de décès à partir de données observationnelles hétérogènes crée une illusion de précision susceptible de masquer l’ampleur réelle des marges d’erreur. Une fois diffusés dans l’espace public, ces chiffres acquièrent une portée performative disproportionnée par rapport à leur fondement scientifique initial.
- Science, décision et confusion des responsabilités : en situation d’urgence, la science est souvent sommée de produire non plus des connaissances provisoires, mais des conclusions immédiatement actionnables. Ce glissement transforme des analyses exploratoires en instruments quasi décisionnels, brouillant la frontière entre production de savoir, décision politique et jugement moral.
-
Asymétrie du risque réputationnel et incitations structurelles : un autre facteur structurel, rarement explicité, contribue à la fragilisation du débat scientifique en temps de crise : l’asymétrie du risque réputationnel.
Dans un contexte fortement polarisé, publier des résultats perçus comme alarmants ou conformes à une narrative dominante expose généralement à un risque réputationnel limité. À l’inverse, formuler des conclusions nuancées, souligner les incertitudes ou contester des estimations largement relayées peut entraîner une exposition accrue à la critique, à la suspicion ou à la disqualification symbolique.
Cette asymétrie ne repose pas sur des intentions individuelles, mais sur des mécanismes collectifs bien documentés en sociologie des sciences. Elle favorise structurellement la diffusion de résultats spectaculaires au détriment d’analyses prudentes, pourtant méthodologiquement plus robustes, contribuant ainsi à la formation de consensus prématurés.
- Traçabilité épistémique et dilution des responsabilités collectives : un élément supplémentaire mérite d’être pris en compte : la perte de traçabilité des chaînes de responsabilité épistémique en temps de crise.
La production scientifique fonctionne selon une chaîne — élaboration des hypothèses, validation éditoriale, diffusion médiatique, puis usage politique ou administratif. En contexte d’urgence, cette chaîne tend à se fragmenter. Chaque acteur peut alors se retrancher derrière son rôle limité : les auteurs publient, les revues valident, les médias relaient, les décideurs invoquent « l’état de la science ».
Cette fragmentation rend difficile l’identification des responsabilités lorsque des résultats fragiles produisent des effets durables dans l’espace public. La rétractation corrige le dossier académique, mais elle n’affecte qu’un maillon de la chaîne, laissant intactes les décisions, représentations et récits construits à partir de la publication initiale.
- Incertitude scientifique et réinterprétation morale a posteriori : un dernier glissement mérite d’être analysé : la tendance à réinterpréter a posteriori des situations d’incertitude scientifique comme des fautes morales.
En temps de crise, l’incertitude inhérente au processus scientifique est souvent mal comprise. Des hypothèses formulées en contexte d’information incomplète peuvent être ultérieurement jugées à l’aune de connaissances acquises après coup. Ce décalage conduit à transformer rétrospectivement des zones d’ignorance légitime en erreurs fautives, voire en manquements éthiques.
Ce mécanisme brouille l’analyse des responsabilités. Il projette sur le passé des exigences de certitude qui n’étaient pas disponibles au moment de la décision, et contribue à moraliser des débats qui relèvent avant tout de limites épistémiques. En retour, cette réinterprétation alimente la défiance, en donnant l’illusion que des certitudes auraient été dissimulées plutôt que réellement absentes.
Reconnaître ce glissement est essentiel pour distinguer ce qui relève d’erreurs méthodologiques évitables de ce qui relève des contraintes intrinsèques de la connaissance scientifique en situation d’urgence.
-
Visibilité, amplification et illusion de validité scientifique : un dernier mécanisme, rarement explicité mais décisif, mérite d’être souligné : la confusion croissante entre visibilité scientifique et validité épistémique en contexte de crise.

Lorsque la circulation de l’information scientifique s’accélère, la fréquence des citations, la reprise médiatique et la reconnaissance institutionnelle tendent à être perçues comme des indicateurs implicites de solidité scientifique. Or, cette hiérarchie de visibilité ne coïncide pas nécessairement avec une hiérarchie de robustesse méthodologique.
En situation d’urgence, les résultats qui circulent rapidement acquièrent une autorité symbolique disproportionnée par rapport à leur degré réel de validation. À l’inverse, les corrections, rétractations ou mises en garde méthodologiques bénéficient d’une visibilité nettement moindre. Cette asymétrie contribue à figer des représentations collectives sur la base de travaux ultérieurement invalidés.
La science n’est pas ici en cause dans ses principes, mais dans son écosystème de diffusion. Lorsque l’amplification médiatique se substitue implicitement à la validation scientifique, la crédibilité perçue d’un résultat dépend davantage de son exposition que de sa solidité interne.
Cette illusion de validité renforce mécaniquement les effets décrits précédemment : consensus prématurés, polarisation du débat et persistance d’erreurs corrigées trop tardivement pour produire un effet réel dans l’espace public.
Temporalité épistémique et mémoire scientifique
La science en temps de crise souffre moins d’erreurs que d’un mauvais rapport au temps.
Une question demeure largement absente des débats : que devient une erreur scientifique une fois qu’elle a circulé ? Et surtout : la rétractation suffit-elle à réparer les effets épistémiques, médiatiques et politiques d’une publication erronée ?
La rétractation corrige le dossier académique, mais elle ne répare pas automatiquement les effets produits dans l’espace public. Les chiffres initiaux continuent souvent de circuler, d’être cités ou de structurer des représentations collectives, alors même que leur fondement scientifique a été invalidé.

Cette dissymétrie temporelle — entre la rapidité de diffusion initiale et la lenteur de la correction — fragilise la mémoire scientifique collective. Elle contribue à l’accumulation de résidus épistémiques : des affirmations réfutées mais durablement présentes dans l’espace médiatique et politique.
Penser la science en temps de crise implique donc d’intégrer non seulement la production du savoir, mais aussi sa persistance, sa traçabilité et sa capacité effective à être corrigée dans la durée.
Conclusion
L’analyse critique de l’étude de Pradelle et Lega et al. ne constitue ni un rejet de la science ni une prise de position idéologique sur l’hydroxychloroquine. Elle plaide pour un renforcement des exigences méthodologiques, épistémologiques et institutionnelles qui fondent la crédibilité du savoir scientifique.
Comme le souligne Rico Hauswald, restaurer durablement la confiance suppose d’assumer les incertitudes, de limiter les extrapolations abusives et de préserver un pluralisme critique. Le cas présenté ici rappelle qu’il n’est pas possible de concilier simultanément rigueur scientifique élevée, modélisations spéculatives, amplification médiatique rapide et conclusions accusatoires à forte portée symbolique.
Clarifier les frontières entre connaissance, visibilité, décision et jugement moral — et repenser la temporalité de la correction scientifique — constitue une condition essentielle pour éviter que les crises futures n’approfondissent davantage le fossé entre science et société.
