Entre les régulateurs européens et les géants américains de la technologie, les tensions ne cessent d’augmenter ! Et la seconde partie du rapport intérimaire publié hier par le Comité judiciaire de la Chambre des représentants des États-Unis révèle l’ampleur d’une campagne de censure orchestrée par la Commission européenne.
Ce document, intitulé « La menace de la censure étrangère, Partie II : La campagne européenne de dix ans pour censurer Internet mondial et comment elle nuit à la liberté d’expression américaine aux États-Unis », dénonce comment l’Union européenne (UE) a exercé une influence soutenue sur les plateformes comme Google, TikTok, Meta et X (anciennement Twitter) pour modifier leurs règles de modération de contenu à l’échelle mondiale.

Ces pressions, souvent masquées sous des initiatives « volontaires », ont abouti à la suppression ou à la démotion de discours politiques légitimes, y compris des informations véridiques sur des sujets sensibles comme la pandémie de COVID-19, les migrations de masse ou les questions transgenres.
Jim Jordan président du Judiciary Committee a fait une déclaration au sujet du rapport de son équipe :
Europe’s Threat to American Speech and Innovation: Part II https://t.co/MUzC7B7nxg
— House Judiciary GOP 🇺🇸🇺🇸🇺🇸 (@JudiciaryGOP) February 4, 2026
Le contexte de l’enquête : une réponse à une menace étrangère sur la liberté d’expression américaine
L’enquête du Comité judiciaire, présidé par le républicain Jim Jordan, a débuté en février 2025 avec l’émission de subpoenas à dix grandes entreprises technologiques, dont Apple, Amazon, Microsoft, Google, Meta, TikTok, X et d’autres. Ces assignations obligaient les plateformes à produire des communications internes et des échanges avec des gouvernements étrangers, notamment la Commission européenne et les États membres de l’UE.
🚨The EU Censorship Files, Part II
For more than a year, the Committee has been warning that European censorship laws threaten U.S. free speech online.
Now, we have proof: Big Tech is censoring Americans’ speech in the U.S., including true information, to comply with Europe’s… pic.twitter.com/Fg0gxzoTxD
— House Judiciary GOP 🇺🇸🇺🇸🇺🇸 (@JudiciaryGOP) February 3, 2026
L’objectif : examiner comment des lois et des régulations étrangères contraignent ou influencent les entreprises à censurer du contenu aux États-Unis, où la liberté d’expression est protégée par le Premier Amendement.
Ce rapport fait suite à un premier document publié en juillet 2025, qui se concentrait sur le Digital Services Act (DSA), une loi européenne entrée en vigueur en 2023 régulant la modération en ligne. Le DSA, présenté comme un outil pour lutter contre la « désinformation » et les « discours de haine », est accusé d’être un levier pour imposer une censure globale. Le nouveau rapport, basé sur des milliers de documents internes obtenus via ces subpoenas, démontre que cette stratégie remonte à 2015, bien avant le DSA. À l’époque, face à la montée des mouvements populistes critiquant des politiques comme l’immigration massive, la Commission européenne a créé des forums et des « codes de conduite » pour discuter directement avec les plateformes de la modération de contenu outrepassant en quelque sorte la voix des citoyens.

Par exemple, l’EU Internet Forum (EUIF), lancé en 2015 par la Direction générale des migrations et des affaires intérieures, a produit un manuel pour modérer des discours légaux comme la « rhétorique populiste », les contenus « anti-gouvernement » ou « anti-élites », les satires politiques, ou les critiques sur les migrations et les questions LGBTIQ.
It began as early as 2015, when the @EU_Commission created “codes” and “forums” through which it could pressure platforms to censor speech more aggressively. pic.twitter.com/XeGpd0GlK0
— House Judiciary GOP 🇺🇸🇺🇸🇺🇸 (@JudiciaryGOP) February 3, 2026
En 2016, un Code de conduite sur les discours de haine illégaux en ligne a suivi, engageant des plateformes comme Facebook, Instagram, TikTok et Twitter à censurer des contenus vaguement définis comme « haineux ». Un Code de pratique sur la désinformation en 2018 a promis de « diluer la visibilité » de l’information jugée fausse, avec des réunions régulières pour presser les changements de règles.
Ces initiatives, qualifiées de « volontaires » et « consensuelles », étaient en réalité coercitives. Des e-mails internes de Google révèlent que les entreprises « n’avaient pas vraiment le choix » de participer, avec des agendas imposés par la Commission sous menace de sanctions futures. Plus de 90 réunions entre 2022 et 2024, organisées sous le Code de désinformation renforcé, ont servi à pousser les plateformes à adopter des politiques plus strictes, y compris sur des sujets comme les élections ou la démonétisation de médias conservateurs.

Comment les plateformes ont altéré l’information sous pression européenne
Le rapport met en évidence comment ces pressions ont conduit les plateformes à modifier leurs règles de modération globales, impactant directement ce que les utilisateurs voient et disent en ligne, y compris aux États-Unis. La plupart des plateformes appliquent un ensemble unique de directives communautaires à l’échelle mondiale, car une modération pays par pays poserait des risques pour la vie privée et serait inefficace face aux VPN. Ainsi, quand l’UE exige des changements, cela affecte le monde entier.

Pendant la pandémie de COVID-19, des hauts responsables européens, avec l’aval de la présidente Ursula von der Leyen et de la vice-présidente Věra Jourová, ont pressé les plateformes à « mettre à jour leurs termes de service ou pratiques de modération » pour censurer des contenus questionnant les narratifs officiels sur le virus et les vaccins. Dès octobre 2020, des demandes urgentes visaient à supprimer des informations vraies ou des débats politiques, sans nécessiter de preuves individuelles de violation.
Comme le montre cet email de la Commission européenne daté du 30 octobre 2020, adressé à des géants comme Google, Microsoft et Twitter, et demandant des données sur les tendances de « désinformation » vaccinale ainsi que des mises à jour sur les pratiques de promotion/démotion de contenu (voir l’image ci-dessous, partagée dans un tweet du Comité Judiciaire, repris par Marion Nawfal), ces pressions venaient des plus hauts niveaux et étaient justifiées par une « urgence » pour aligner les plateformes sur la stratégie COVID de l’UE, peu importe que l’information supprimée soit vraie ou pas.

Cela a mené à des suppressions massives : des chaînes vidéo entières fermées en mars 2021 pour des contenus critiques sur les mesures sanitaires, ou des dizaines de milliers d’articles déindexés par des moteurs de recherche, rendant invisibles des perspectives alternatives sur les vaccins ou les confinements.
Google, par exemple, a « admis » lors d’auditions devant le Comité judiciaire américain en octobre 2025 avoir censuré des contenus politiques sur la COVID-19 qui ne violaient pas ses règles, sous influence gouvernementale. Ces aveux, dont la portée fait actuellement l’objet d’une réouverture des débats dans la cas qui oppose France-Soir à Google, soulignent comment les plateformes, pour éviter des amendes colossales (jusqu’à 6 % de leur chiffre d’affaires mondial sous le DSA), ont « pollué » l’information en démonétisant ou en agissant à la démotion des sources conservatrices ou indépendantes. TikTok, dans un sondage interne sur ses mises à jour de directives communautaires, a révélé que la conformité au DSA était la motivation principale pour ces changements, intégrant des catégories vagues comme les « discours marginalisants » ou la censure d’informations factuelles jugées sensibles.

Ces pratiques ont perverti le flux d’information : au lieu de promouvoir un débat ouvert, les algorithmes ont amplifié des narratifs officiels tout en étouffant les critiques, y compris sur des élections. Le rapport cite des interférences dans au moins huit scrutins européens depuis 2023, où la Commission a pressé les plateformes à censurer des affirmations conservatrices comme « il n’y a que deux genres ».

Aux États-Unis, des contenus sur les vaccins pour enfants ou des entretiens politiques ont été ciblés, comme la menace du commissaire Thierry Breton contre X pour un live avec Donald Trump en 2024.
Les conséquences : amendes, perquisitions et menaces sur la liberté d’expression
Les répercussions sont profondes. Le DSA, culminant cette décennie de pressions, a abouti à la première amende en décembre 2025 contre X : 120 millions d’euros pour des infractions techniques comme les badges de vérification bleus (vus comme des « schémas trompeurs »), un répertoire publicitaire défectueux et un accès insuffisant aux données pour les chercheurs. Cette sanction, analysée par le Comité judiciaire américain via subpoena et détaillée dans un article récent de France-Soir, est perçue comme une punition pour la défense de la liberté d’expression par Elon Musk, qui l’a qualifiée de « guerre contre la libre parole ». Elle risque de balkaniser internet, forçant des modérations plus strictes et menaçant de suspensions en Europe.

Hier, le 3 février 2026, une descente de police a eu lieu aux bureaux de X à Paris, menée par l’unité cybercrime du parquet de Paris avec Europol. Cette perquisition s’inscrit dans une enquête ouverte en janvier 2025 sur des infractions comme l’extraction illégale de données, la complicité dans la diffusion d’images d’abus sur mineurs, des deepfakes sexuels générés par l’IA Grok, et des soupçons d’ingérence politique. Dans le cadre de cette procédure, Elon Musk et l’ancienne PDG Linda Yaccarino ont reçu une demande d’audition volontaire le 20 avril 2026 à Paris, pour clarifier leur rôle dans la gestion de la plateforme.

Ces événements illustrent les tensions croissantes : l’UE, via le DSA et des enquêtes nationales, semble viser les plateformes réfractaires à une modération alignée sur ses priorités. Pour les utilisateurs, cela signifie une information « polluée » – des débats biaisés, des vérités supprimées – au profit d’un contrôle narratif qui menace la démocratie. Le rapport américain appelle à des mesures législatives pour protéger la liberté d’expression en ligne, signalant que la bataille contre cette censure étrangère ne fait que commencer.

Un exemple concret : les épreuves d’un média indépendant face à ces politiques dictatoriales : France-Soir
Ces mécanismes de censure n’ont pas seulement touché les grandes plateformes ; ils ont aussi impacté des médias indépendants qui osent questionner les narratifs dominants. Depuis 2020, certains titres ont été en première ligne, subissant en temps réel les effets des politiques informationnelles imposées par les autorités européennes et même par l’administration Biden aux États-Unis. Par exemple, en 2020, France-Soir, un média français agréé a vu son score de crédibilité dégradé par une officine de notation comme Newsguard (qui pratique la désinformation sélective et ciblée à des fins commerciales), combiné à des attaques sur son indépendance économique. Cela inclut l’intervention d’un syndicat de presse qui a contribué à stopper une campagne de dons via une plateforme censée promouvoir le pluralisme, comme Jaimelinfo. Malgré une réunion avec JaimeLinfo, aucune fausse information n’a pu être démontrée, restant sur le niveau des opinions.
En février 2021, la ministre de la Culture de l’époque, Roselyne Bachelot, a demandé une révision de l’agrément de ce média par la Commission paritaire des publications et agences de presse (CPPAP), suite à des publications critiquées sans apporter de base factuelle. Pourtant, en avril 2021, la CPPAP a confirmé que le média respectait toutes les conditions requises, maintenant ainsi son statut officiel. Cela n’empêchera pas les médias de titrer : « accusé de relayer des thèses complotistes, FranceSoir conserve néanmoins son statut de site d’information ». Condamné sans preuve !

Mais cela n’a pas suffi : en mars 2021, sans préavis, Google a fermé ses chaînes YouTube et déindexé plus de 55 000 articles de Google Actualités, rendant le média invisible malgré son agrément par le ministère de la Culture. Aucune réaction notable de ce ministère, qui avait pourtant réévalué positivement l’agrément quelques semaines plus tôt.
Pire encore, lors des travaux d’une commission sur la désinformation – connue sous le nom de « Commission des Lumières » ou commission Bronner –, la présidente de la CPPAP, Laure Franceschini, a déclaré que pour stopper un tel média, il fallait démontrer que ses publications étaient dangereuses pour la santé publique. Une idée stupéfiante : lire des articles critiques pourrait être nocif ! Sur cette base, la CPPAP a tenté de ne pas renouveler l’agrément, une décision suspendue par le tribunal administratif en janvier 2023, qui se fendra de manière exceptionnelle d’un communiqué de presse ; décision qui sera confirmée jusqu’au Conseil d’État.

Cependant, en juillet 2024, un nouveau refus de renouvellement a été prononcé, toujours en invoquant un prétendu danger pour la santé, sans preuves concrètes de fausses informations. L’affaire est toujours en cours au fond tribunal administratif. En outre la Société Générale fermera les comptes des sociétés France Soir Groupe et Shopper Union France assortis de contrôles fiscaux dirigés.
Malgré ces épreuves, aucun procès judiciaire n’a établi de diffusion de fausses informations ; il s’agit plutôt de procès d’intention, basés sur des interprétations subjectives. Fidèle à la charte de Munich – le code déontologique des journalistes qui insiste sur le devoir d’informer sans compromission –, France-Soir continue de prioriser la vérité, quoiqu’il en coûte, illustrant les risques pour le pluralisme médiatique dans un environnement où la censure se masque en protection contre la « désinformation ».

Retrouvez le résumé vidéo de cet article :