L’article précédent (partie I), centré sur l’avertissement de Tim Berners-Lee concernant l’effondrement du modèle publicitaire du web face à l’IA, omettait un enjeu crucial – et peut-être plus insidieux – : la propagation et l’amplification de la désinformation par l’IA. Les grands modèles de langage (LLM) ne se contentent pas de « lire » le web sans générer de clics ; ils risquent de le synthétiser, le transformer et le diffuser de manière biaisée, érodant la confiance des utilisateurs « en les enduisant avec de l’erreur ». Cela n’est pas seulement une question de revenus perdus, mais d’une crise de légitimité qui pourrait accélérer l’abandon des sources traditionnelles au profit d’IA opaques. Explorons cela à partir d’exemples concrets, en nous appuyant sur des faits vérifiés, et d’une méthode de scoring proposée pour évaluer la neutralité ou le partisanisme des informations.
Le web actuel : un terrain fertile pour la désinformation « blanchie »
Le web repose sur des sites d’actualités qui, pour survivre, produisent du contenu à flux tendu, souvent repris en cascade sans vérification approfondie. Comme le note Berners-Lee, si les LLM synthétisent cela sans renvoyer aux sources principales, les pubs s’effondrent. Mais pire : ces LLM, entraînés sur des données web massives, héritent et amplifient les biais. Imaginez un LLM qui, face à une requête sur une recette de tiramisu, intègre des alternatives « saines » promues par des lobbies anti-sucre (comme des édulcorants artificiels sponsorisés). Ce n’est pas de la fiction : des études montrent déjà que les réponses d’IA sur la nutrition sont influencées par des partenariats commerciaux, transformant des faits neutres en propagande subtile.
L’exemple du lobby « bonne santé » vs. sucre est pertinent notamment avec le développement du mouvement MAHA (Make America Healthy Again) qui soutient la recherche d’informations scientifiques clés objectives dans l’optique d’améliorer la santé des Américains. Des plateformes comme Google ou Meta intègrent déjà des pubs pour des produits « zéro sucre » dans les résultats de recherche, et les LLM pourraient généraliser cela : une recette traditionnelle devient « améliorée » sans mention des biais. Cela crée une « désinformation douce », où l’info est altérée sans mensonge flagrant, mais au détriment de la diversité des perspectives.
Exemples concrets : de la COVID à l’Ukraine, la reprise en écho des narratifs biaisés – et l’analogie des dérivés financiers
Prenons plusieurs cas pour illustrer comment le web propage des infos biaisées, et comment l’IA pourrait les aggraver.
L’origine du virus COVID-19 : un débat scientifique étouffé ?
Les médias mainstream ont initialement relayé la thèse d’une origine naturelle (zoonose via un marché de Wuhan), souvent sans nuance, rejetant l’hypothèse de fuite de laboratoire comme conspirationniste. En 2025, la CIA et plusieurs rapports américains estiment la fuite de labo comme « la plus probable. » alors que l’OMS penche pour une origine animale. Une modification radicale du narratif de 2020.
Des articles comme ceux de Science et Avenir ou Le Point soulignent que la Chine bloquerait les enquêtes, politisant le débat.
Si un LLM synthétise 10 sources mainstream rejetant la thèse labo, il pourrait produire une réponse biaisée : « L’origine est naturelle, sans preuve d’accident de labo. » Multiplié par des millions d’utilisateurs, cela « blanchit » un narratif non critique, marginalisant des voix scientifiques dissidentes comme par exemple celle du Professeur Montagnier.
L’enjeu est la perte de confiance dans les médias mainstreams et la parole publique : les utilisateurs, soupçonnant un « consensus fabriqué », se tournent vers des sources alternatives, qui étant plus indépendantes sont donc plus critiques et moins souvent partisanes.
Les bénéfices/risques des vaccins COVID : une « fonte » des avantages et une « augmentation des risques » ?
Les bénéfices des vaccins covid semblent fondre « comme neige au soleil » avec la confiance des utilisateurs puisque 72% des Français déclarent ne pas vouloir se faire vacciner contre la covid en 2025. Et 52% indiquent que les mensonges répétés du gouvernement et des autorités leur ont fait perdre confiance. L’IA peut donc vanter les mérites de la vaccination, qui selon certaines études de plus en plus contestées, resteraient efficaces à 33-50 % contre les hospitalisations et le long COVID, avec une protection durable (jusqu’à 45 % contre l’infection après 4 semaines). Cependant si l’IA réfute les effets secondaires et plus de 700 études sur la toxicité de la protéine spike alors la confiance sera vraiment en berne. Et même si Pfizer et l’OMS affirment une réduction des formes graves, surtout chez les vulnérables, il devient de plus en plus évident que le « tous vaccinés, tous protégés » vanté par l’administration française n’avait aucune base scientifique réelle. Les risques (myocardites) commencent à être bien documentés avec le travail de l’ACIP aux Etats-Unis. Cependant le rapport bénéfice-risque pose de réelles questions qui ont menées l’ACIP à ne plus donner une recommandation universelle aux vaccins covid. Un LLM pourrait tenter de « moyenner » cela en minimisant les bénéfices, créant une désinfo hybride : « Les vaccins étaient utiles au début, mais moins maintenant. »
Cela érode la confiance vaccinale, impactant la santé publique – et, ironiquement, les revenus des sites pharma qui financent des pubs sur des infos « équilibrées ».
La propagande anti-russe et la corruption en Ukraine : un narratif sélectif ?
L’Ukraine est classée parmi les pays les plus corrompus (indice Transparency International 2024 : 104e/180), avec des scandales persistants malgré des réformes soutenues par l’UE et les USA pour l’adhésion de l’Ukraine à l’OTAN. La couverture occidentale critique cette corruption (ex. : détournements d’aide militaire), mais l’encadre souvent comme un obstacle surmontable face à l’agression russe, vue comme la menace principale.
La propagande russe exploite cela pour dépeindre l’Ukraine comme un « État failli corrompu », justifiant l’invasion. Les médias mainstream, en se focalisant sur les crimes russes sans apporter de preuves tangibles, sous-exposent la corruption ukrainienne, créant un biais pro-occidental. Ce que Benoit Paré décrit dans son livre « Ce que j’ai vu en ukraine » et la suite « Ukraine : la grande manipulation ».
Un LLM pourrait amplifier cela : une requête sur « guerre Ukraine » génère un résumé pro-Kyiv, ignorant les nuances, renforçant la polarisation et contribuant à la désinformation de l’utilisateur.
Le cas du général Paul Pellizzari : une fake news en cascade
Cet exemple est emblématique. En avril 2025, l’AFP et des médias comme L’Essor et Le Parisien ont lié la radiation du général Paul Pellizzari (pour « manquement au devoir de réserve ») à une tribune de 2021 dans Valeurs Actuelles qu’il n’avait pas signée – erreur propagée par une quinzaine de médias qui ont repris la dépêche AFP sans la vérifier. La vraie cause ? Une plainte de 2024 contre des ministres pour livraisons d’armes illégales à l’Ukraine, irrecevable mais non classée.
France Soir a obtenu une correction AFP via mise en demeure le 7 mai 2025, forçant des rectificatifs. Cela illustre le « blanchiment » : une erreur initiale (non vérifiée) se multiplie, préjudiciant un individu.
Un LLM pourrait résumer cela comme « Radiation pour tribune controversée » en utilisant les 15 médias comme sources, perpétuant la fake news sans vérification avec la source.
Les dérivés financiers : quand l’information « sous-jacente » se perd dans les maths complexes, amplifiant les biais
L’analogie avec les produits dérivés financiers est un parallèle frappant avec le fonctionnement des LLM. En finance, un dérivé (option, future, swap) tire sa valeur d’un « sous-jacent » (ex. : une action ou un indice), mais via des formules mathématiques (comme le modèle Black-Scholes), il abstrait et simplifie l’info de base. Résultat ? L’investisseur voit une valeur « dérivée » – souvent opaque et incomplète – sans accès direct aux détails du sous-jacent (risques idiosyncratiques, contexte économique réel). Si le sous-jacent est biaisé (ex. : données gonflées par une bulle), le dérivé propage et amplifie l’erreur, menant à des bulles ou crashes.
Un cas emblématique : les Collateralized Debt Obligations (CDO) lors de la crise financière de 2008. Ces produits regroupaient des milliers de prêts hypothécaires subprime (sous-jacents) en tranches notées AAA par des agences comme Moody’s, promettant des rendements stables. Mais l’opacité était totale : les investisseurs ne voyaient pas la qualité réelle des prêts individuels (défauts de paiement croissants dus à la bulle immobilière américaine). Les infos sous-jacentes – surendettement des emprunteurs, fraudes dans les évaluations – étaient « perdues » dans les modèles mathématiques et les notations biaisées (influencées par les banques émettrices). Quand les défauts de paiement ont explosé (de 2007 à 2008), les CDO ont perdu 80-90 % de leur valeur, effaçant des trillions de dollars et déclenchant la récession mondiale. Merrill Lynch, par exemple, a annoncé une perte de 8 milliards sur ses CDO en octobre 2007, forçant une recapitalisation d’urgence.
Transposé à l’IA : imaginez un LLM répondant à « Conseils d’investissement en immobilier 2025 ». Il « dérive » une synthèse à partir de données web (sous-jacents : articles sur les prix, taux d’intérêt, études de marché). Mais si ces sources sont biaisées (ex. : pubs immobilières gonflant les rendements, ou rapports mainstream ignorant les bulles locales), la réponse sera incomplète – omettant les risques sous-jacents comme la surévaluation des actifs, les changements réglementaires ou la fiscalité. Pire, multipliée par des millions d’utilisateurs, cette « info dérivée » crée une bulle informationnelle : les lecteurs investissent sur des bases erronées, érodant la confiance en toute info financière. Des études récentes montrent déjà que les chatbots comme ChatGPT donnent des conseils biaisés sur les cryptos, amplifiant les hype (battages) sans avertissements sur les volatilités sous-jacentes. Si l’IA devient un « produit structuré » d’info (comme un ETF synthétique), les erreurs biaisées du web original se démultiplient exponentiellement, rendant le tout inutilisable.
Cette analogie renforce la vigilance que nous devons avoir : sans accès au « sous-jacent » vérifié, l’utilisateur reçoit une vue partielle, potentiellement trompeuse. Pour contrer cela, des « avertissements contextuels » dans les LLM (ex. : « Synthèse basée sur 70 % de sources mainstream ; voir données brutes ») pourraient aider, comme les stress-tests obligatoires post-2008 pour les CDO.
Le scoring : une arme contre les biais ?
L’information pourrait être scorée, par exemple de -10 (fortement biaisé) à +10 (objectif), avec un agrégat pour détecter les échos (ex. : -10 x 10 médias = -100 pour l’origine COVID), est ingénieuse. Appliquée à Wikipédia ou aux médias, elle quantifierait la « démultiplication » des narratifs officiels, surtout si subventionnés (comme l’AFP, financée publiquement). Pour Pellizzari, un score de -150 sur 15 reprises initierait un drapeau rouge.
NewsGuard a bien essayé de faire cela avec un score nutritionnel de fiabilité, mais il a été démontré qu’eux-mêmes sont partisans et liés au système qui perpétue le narratif officiel avec tous les biais cognitifs et les étiquettes habituelles (complotiste, extreme droite,…). D’autres algos d’IA pourraient aussi détecter les bulles informationnelles. Cependant les défis existent : qui définit le « neutre » ? Un score subjectif comportera toujours une risque de biais (ex. : un labo pro-vaccin score +10 une méta-analyse, un sceptique -10). Tout dépend de l’angle adopté. La solution est probablement dans un scoring crowdsourcé (comme les notes de la communauté sur X, si tant soit peu que l’anonymat soit levé afin d’avoir une transparence sur qui répond) ou alors basé sur des sources multiples.
Ce scoring serait intégré aux LLM pour alerter : « Cette synthèse repose sur 80 % de sources mainstream ; voir perspectives alternatives. »
Les implications : un web « inhumain » et des solutions à inventer
Berners-Lee ne s’arrête pas à l’aspect économique. Il craint un web « illisible » et « inhumain », où les machines parlent aux machines, marginalisant les humains. Les pubs hyper-personnalisées, déjà critiquées pour leur surveillance intrusive (« elles rendent les gens fous et leur donnent l’impression d’être surveillés »), pourraient s’aggraver si l’IA les intègre directement dans les réponses – mais cela heurterait les utilisateurs, comme le notent des replies sur X.
Mark Surman de Mozilla renchérit : le modèle publicitaire est à un « carrefour potentiel ». Il faut « ne pas laisser passer une bonne crise » pour repenser la pub. Berners-Lee propose des alternatives : des abonnements directs (comme ceux de Substack), des paiements pour l’accès aux données via Solid, ou des pubs IA-intégrées mais éthiques. Des voix sur X suggèrent même un « web post-pub » peer-to-peer, comme Holochain, sans intermédiaires.
L’analogie des dérivés montre que l’IA n’est pas seulement un « lecteur » passif ; elle crée des « produits informationnels » opaques, accélérant la crise de confiance. Ces cas montrent que la désinfo n’est pas anodine : elle mine la confiance (seulement 32 % des Français font confiance aux médias en 2025, selon Reuters). Si les LLM amplifient des narratifs biaisés, les utilisateurs fuient vers des bulles (TikTok, Telegram), privant le web de trafic – et de pubs. Les solutions ? Une transparence de l’IA (ex. : citer sources et scores, algorithmes transparents), régulation, et alternatives comme Solid pour des données décentralisées.
Restaurer la confiance pour sauver le web
L’avertissement de Tim Berners-Lee sur l’effondrement économique du web face à l’IA est alarmant, mais les exemples concrets – de l’origine controversée du COVID à la fake news sur le général Pellizzari, en passant par les narratifs biaisés sur l’Ukraine ou les vaccins – révèlent un danger plus profond : une désinformation « dérivée » et amplifiée qui mine la confiance à la base. Comme dans la crise des CDO de 2008, où des sous-jacents opaques ont propagé des erreurs fatales, les LLM risquent de transformer le web en un écosystème toxique, où l’info synthétisée devient une bulle prête à éclater. Sans intervention, ce n’est pas seulement l’économie publicitaire qui s’effrite, mais la crédibilité même d’Internet comme espace partagé et fiable.
Pourtant, cet appel à l’action est une opportunité. En adoptant des outils comme votre système de scoring pour quantifier les biais, en imposant une transparence radicale aux LLM (attributions sources, alertes sur les « dérivées informationnelles » incomplètes) et en favorisant des modèles décentralisés comme Solid, il est possible d’envisager la réinvention d’un web résilient. Les géants tech doivent passer de l’exploitation sans limite à la régulation éthique, inspirés par les leçons post-2008 : audits obligatoires, stress-tests informationnels et une gouvernance ouverte.
Berners-Lee nous le rappelle : l’IA peut enrichir l’humanité, mais seulement si nous la domestiquons avant qu’elle ne nous noie sous un flot d’illusions.
Le web n’est pas condamné ; il attend simplement que nous lui redonnions sa place dans l’humanité, à savoir un outil – avant qu’il ne soit trop tard.