L’assignation du Comité Judiciaire US à OpenAI : menace sur la liberté d’expression et appel à la transparence


Dans un climat de tensions croissantes autour de l’intelligence artificielle (IA) et de la régulation numérique, le Comité Judiciaire de la Chambre des Représentants des États-Unis, présidé par le républicain Jim Jordan, a franchi une nouvelle étape en délivrant une assignation à OpenAI et à son PDG, Sam Altman. Cette mesure, annoncée le 5 novembre 2025, s’inscrit dans une série d’enquêtes plus larges sur les interactions des géants technologiques avec des puissances étrangères, potentiellement au détriment de la liberté d’expression américaine.

Au-delà de cet épisode, cet article explore les antécédents, les aveux de censure chez les concurrents, les décisions récentes d’OpenAI, et les implications plus profondes : interférences étrangères, pollution informationnelle et le risque que l’IA devienne un outil de propagande. Sans transparence sur les codes sources et les données d’entraînement, des entreprises comme OpenAI – et même xAI avec Grok – pourraient voir leurs ambitions freinées.

 

Une assignation ciblée sur les interactions étrangères

Le 5 novembre 2025, Jim Jordan, figure clé des républicains à la Chambre, a adressé une lettre formelle à Sam Altman exigeant des détails sur les engagements d’OpenAI avec des régulateurs étrangers. L’assignation porte spécifiquement sur la conformité de l’entreprise aux règles européennes, britanniques et brésiliennes visant à limiter la désinformation et les contenus jugés néfastes sur les plateformes IA.

Jim Jordan argue que ces mesures, bien qu’extérieures, risquent d’affecter les droits à la libre expression des Américains, en imposant une censure indirecte via des outils globaux comme ChatGPT. Cette enquête met en lumière les craintes d’une « exportation » de régimes autoritaires vers les États-Unis, où des algorithmes entraînés sur des données biaisées pourraient filtrer des discours légaux au nom de la « sécurité informationnelle ».

Reuters

Cette action n’est pas isolée. Dès février 2025, le même comité avait émis des assignations à huit géants technologiques – Alphabet (Google), Meta, Apple, X Corp, Amazon, Microsoft, Rumble et TikTok – pour obtenir des informations sur leurs communications avec des gouvernements étrangers. L’objectif : évaluer comment ces échanges pourraient limiter l’accès des Américains à des discours légaux, via des lois comme celles du Royaume-Uni ou un projet australien imposant la suppression de contenus « nocif ou toxique ». Microsoft et Rumble ont promis une coopération, soulignant un engagement pour la transparence face à ces pressions externes. Ces enquêtes révèlent cependant une schéma : les Big Tech, sous couvert de conformité globale, pourraient importer des formes de censure qui érodent le Premier Amendement.

 

Les aveux de censure chez Google : un précédent alarmant

Ces développements font écho aux récentes admissions de Google, qui, dans un document soumis au Comité Judiciaire le 23 septembre 2025, a confessé avoir cédé à des pressions de l’administration Biden pour censurer des contenus sur YouTube, y compris ceux ne violant pas ses propres politiques. Des officiels de la Maison Blanche ont poussé pour la suppression de vidéos sur la désinformation COVID-19 et les élections de 2020, qualifiant ces interventions d’« inacceptables ». En réponse, YouTube s’engage à réintégrer les comptes bannis pour motifs politiques et à abandonner les fact-checkers tiers d’ici fin 2024, reconnaissant leurs biais potentiels.

Il convient de rappeler que France-Soir, média totalement indépendant, pilier de la dépollution informationnelle depuis 2020, a subi une censure drastique par Google (Alphabet), qui a désindexé plus de 55 000 articles et fermé ses chaînes YouTube, privant ainsi des millions de citoyens américains, français – et mondiaux – d’un accès direct à des interviews exclusives de personnalités dissidentes clés telles que Robert F. Kennedy Jr., William Binney (ex-analyste NSA sur le Russiagate), Robert Malone (pionnier des vaccins ARNm), le sénateur Ron Johnson, ou encore les épidémiologistes Martin Kulldorff (Harvard) et Jay Bhattacharya (Stanford), auteurs de la Great Barrington Declaration. 

Ces échanges, menés entre 2020 et aujourd’hui, offraient des perspectives divergentes et factuelles sur la politique intérieure américaine, la gestion de la crise COVID, les risques des vaccins à ARNm, le scandale du Russiagate ou l’authenticité du laptop de Hunter Biden, souvent occultés par les narratifs dominants. Face à ces contenus rigoureux, France-Soir n’a essuyé que des accusations infondées de « complotisme » de la part des médias mainstream, sans aucune contre-preuve factuelle, tandis qu’il décryptait méthodiquement le blanchiment systématique d’informations erronées – comme la minimisation des effets secondaires vaccinaux ou les origines manipulées de fuites présumées. Les subpoenas émis par le Comité Judiciaire présidé par Jim Jordan s’avèrent donc cruciaux pour éclairer le rôle prépondérant de ces géants de l’accès à l’information, ainsi que les influences potentielles exercées par l’administration Biden ou le Digital Services Act (DSA) en Europe ; ces assignations pourraient enfin instaurer la transparence indispensable à restaurer la confiance publique sur ces enjeux vitaux d’intérêt général, évitant que la censure algorithmique ne devienne la norme dans une démocratie numérique.

Robert Kennedy Jr

Ce cas illustre comment les géants de la tech, sous influence gouvernementale, ont pathologisé le scepticisme – pensons à la suspension de chaînes comme celle de France-Soir en 2021 pour « désinformation » l’origine du virus, thèse aujourd’hui quasiment validée, ou encore sur les traitements précoces ou l’existence d’effets secondaire de la vaccination. Pour l’IA, cela pose un risque majeur : des modèles comme ceux de Google pourraient intégrer ces biais dans leurs entraînements, perpétuant une censure algorithmique qui transcende les frontières.

 

La décision d’OpenAI : fin des conseils sensibles, sous pression réglementaire ?

Moins d’une semaine avant l’assignation de Jordan, OpenAI a annoncé, le 1er novembre 2025, une restriction drastique de ChatGPT : l’interdiction de fournir des conseils personnalisés en santé, droit ou finances. Désormais, l’outil se limite à des informations générales, renvoyant les utilisateurs vers des professionnels. Officiellement motivée par la prévention des « hallucinations » (réponses fictives) et des risques légaux, cette mesure semble anticiper des poursuites et s’aligner sur l’AI Act européen, qui classe les IA génératives comme « à haut risque », tout en ayant pas réellement montrer sa capacité à prévenir des risques. Elle freine l’innovation, exacerbant les inégalités d’accès aux connaissances, et ouvre la voie à une régulation accrue, potentiellement imposée par des enquêtes comme celle de Jordan.

OpenAI

 

Analyse : interférences, censure et pollution informationnelle – vers une IA propagandiste ?

Ces événements s’entrelacent dans un écheveau complexe d’interférences étrangères, de censure et de pollution informationnelle. Les régimes comme l’UE ou le Brésil, via des lois anti-désinformation, exercent une pression sur les firmes américaines, forçant une modération qui « lave » les fausses informations au profit de narratifs officiels qui peuvent être influencés des deux côtés.

Comme le dénonce une analyse de France-Soir, les médias subventionnés et fact-checkers biaisés (financés à hauteur de millions d’euros publics) aggravent cela, en mélangeant propagande et vérification – pensons aux deepfakes de Macron en janvier 2025 ou à la minimisation des effets secondaires vaccinaux sur Wikipédia et dans les mainstream ou encore la désinformation institutionnelle orchestrée par Santé Publique France. L’IA amplifie ce phénomène : entraînée sur des données polluées, elle risque de devenir un vecteur de désinformation « blanchi », où des contraintes invisibles dictent les réponses.

La pollution informationnelle

OpenAI devra-t-il ouvrir ses codes sources ? Les influences sur les données d’apprentissage – biaisés par des partenariats étrangers ou des lobbies – et les garde-fous appliqués (comme les filtres anti-« discours de haine » ) exigent une transparence totale. Sans cela, la transformation de l’IA en outil de propagande pourrait s’achever rapidement, sous le feu des enquêtes congressionales.

La pollution informationnelle, comparée à une « fraude alimentaire » institutionnelle, menace la démocratie : une population désinformée consent à des politiques obscures, comme les contrats vaccinaux Pfizer opaques impliquant Ursula von der Leyen et les commissaires européens dans ce qui pourrait être une tromperie générale.

 
Les promesses mirifiques d’Altman et les critiques de Musk

Rappelons que, dès janvier 2025, Sam Altman avait brillé à la Maison Blanche lors d’une annonce triomphale : sous l’égide de Donald Trump, OpenAI s’associait à Oracle et SoftBank pour un méga-investissement de 500 milliards de dollars dans l’infrastructure IA américaine, via le « Stargate Project ». Effets d’annonces d’engagements « mirifiques » pour dominer la Chine en IA, mais aujourd’hui entachés par les soupçons de compromissions étrangères.

Cette trajectoire valide les critiques d’Elon Musk, cofondateur d’OpenAI passé à l’offensive en 2025. Musk accuse Altman d’avoir « trahi » la mission non-profit originelle, transformant l’entreprise en machine à profit au mépris de l’éthique. Ses piques récentes sur X – « Vous avez volé une association sans but lucratif » – résonnent avec les enquêtes actuelles. OpenAI pourrait bien voir ses « ailes coupées », freinant son ascension. Et Grok ? Chez xAI, la transparence sur les codes sources et règles d’apprentissage est impérative : sans elle, un sort similaire guette, dans un monde où l’IA doit servir la vérité, non la manipuler.

En conclusion, l’assignation de Jordan n’est pas un épiphénomène, mais un signal d’alarme. Pour éviter que l’IA ne devienne le cheval de Troie de la propagande globale, une gouvernance ouverte s’impose : audits citoyens des données, interdiction des biais cachés, et une vigilance accrue. Ce n’est pas sans rappeler la bulle internet qui explosa en 2001 !

La bataille pour une information saine – et une IA libre – ne fait que commencer.

 





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *