Analyse : dans un climat où les réseaux sociaux sont de plus en plus scrutés pour leur rôle dans la diffusion de l’information, une vidéo extraite d’une audition parlementaire à l’Assemblée nationale française a fait exploser les compteurs sur X.
🔴💸 ALERTE : Claire Dilé, responsable chez X France explique qu’ils censurent.
« On a lancé une action de modération qui s’appelle Freedom of Speech is not Freedom of Reach. On va mettre un filtre sur le contenu et le déamplifier algorithmiquement. » (LCP)
Scandale d’État. pic.twitter.com/7TYqy1Y8pr
— Sir 𝕏 (@SirAfuera) November 9, 2025
Il s’agit d’un extrait diffusé de l’audition Claire Dilé, l’un des représentants des affaires publiques de plusieurs réseaux sociaux auditionnés par l’Assemblée Nationale en juin 2025. Publié sur la chaîne LCP (La Chaîne Parlementaire) en juin 2025, Dilé, directrice des affaires publiques de X France, explique sans fard les mécanismes de modération de la plateforme. Le clip viral, d’une cinquantaine de secondes, met en lumière une pratique controversée : la « déamplification algorithmique » de contenus jugés « gris », sans pour autant les supprimer. Ce qui passe pour une mesure technique révèle en réalité une forme de censure subtile, baptisée « Freedom of Speech is not Freedom of Reach » (La liberté d’expression n’est pas la liberté de portée). Cette déclaration, prononcée lors d’une commission d’enquête parlementaire, a suscité une vague d’indignation. Des utilisateurs comme @SirAfuera ont qualifié cela de « scandale d’État », tandis que des activistes des droits numériques et lanceurs d’alertes, tels que Frédéric Baldan, y voient une violation flagrante des principes démocratiques.

Mais au-delà du buzz, cette affaire soulève des questions profondes sur la transparence des algorithmes et leur impact sur nos droits fondamentaux. Explorons les rouages de cette méthode, ses implications juridiques et ses échos avec les aveux récents de Google aux États-Unis, en illustrant par un exemple concret : l’invisibilisation du média indépendant France-Soir par X France.
La méthode de la « déamplification » : une censure invisible et granulaire
Claire Dilé, auditionnée sur les effets psychologiques des réseaux sociaux comme TikTok mais élargissant le débat à X, décrit une approche « granulaire » de la modération. D’un côté, les contenus « clairement en violation » des règles de la plateforme ou de la loi sont supprimés. De l’autre, pour les zones « grises » – ces publications sensibles mais non illégales –, X applique un « filtre de visibilité ».
Voici comment cela fonctionne, tel qu’expliqué dans l’extrait viral :
- Identification des contenus « gris» : il s’agit de posts qui ne violent pas explicitement les règles de X ni la loi, mais qui sont considérés comme « potentiellement moins graves » ou « sensibles ». Par exemple, des débats politiques houleux, des critiques envers des institutions ou des contenus « clash » (comme mentionné dans l’audition). –
- Application du filtre : un label invisible (ou discret) est apposé au contenu, signalant une « violation potentielle ». Le post reste en ligne, mais son algorithme de diffusion est modifié.
- Déamplification algorithmique : c’est le cœur de la technique. L’algorithme réduit délibérément la portée du post : moins de recommandations dans les fils d’actualité, moins de visibilité dans les recherches, et une limitation des interactions (likes, reposts, replies). Résultat ? Le contenu « existe» pour son auteur, mais il est étouffé pour le public. Les utilisateurs ne s’en rendent souvent pas compte, ce qui en fait une forme de « shadow ban » (bannissement fantôme).
Cette politique, lancée globalement par X en 2023 sous le slogan « Freedom of Speech is not Freedom of Reach », vise à modérer sans censurer frontalement. Mais comme l’explique Dilé : « On va déamplifier algorithmiquement et empêcher les gens d’engager avec ce contenu ». C’est une modération « plus granulaire sur des contenus qui peuvent être plus gris mais pour autant quand même sensibles ». En clair, X joue les arbitres éditoriaux, décidant unilatéralement ce qui mérite d’être vu ou non, sans recours transparent pour les auteurs.
Un exemple frappant de cette pratique en action concerne le média indépendant France-Soir. Le 9 novembre 2025, le compte @france_soir a publié un article d’opinion intitulé « Les provax, fossoyeurs ultimes de la vaccination ? », expliquant que les « provax extrêmes » ont sacrifié le consentement éclairé au nom de l’urgence sanitaire.
✒️Les provax, fossoyeurs ultimes de la vaccination ? Les vrais antivax ne sont pas ceux qui questionnent avec raison, mais ces provax extrêmes qui, en sacrifiant le consentement sur l’autel de l’urgence, ont vacciné la 🇫🇷contre la confiance. @xazalberthttps://t.co/i0qCqy02v9 pic.twitter.com/6sUV1Wkcbw
— France-Soir (@france_soir) November 9, 2025
Ce post, légal et relevant d’un débat public sur la vaccination, a été immédiatement marqué par X comme contenant du « contenu offensant » ou « sensible ». Résultat : un avertissement flou apparaît pour les utilisateurs, masquant le contenu derrière un bouton « Afficher », ce qui décourage les interactions et limite drastiquement sa visibilité.

Relayé par des comptes comme celui du médecin Peter El Baze, qui dénonce ouvertement « Vous êtes censuré par X France », cet incident illustre parfaitement la déamplification : le post existe, mais il est rendu invisible pour la majorité, étouffant ainsi une voix critique sans justification publique. Voulant intégrer ce post dans cet article comme exemple, X rend la démonstration encore plus probante. Voila le message fourni par X : « Introuvable – désolé , nous ne pouvons pas créer d’intégration pour cela. Il se peut qu’il ait été supprimé ou rendu privé. Veuillez réessayer. »

La « déamplifaction » va bien jusqu’à la prévention de republication de post qui la démontrent !
Sur X, cette révélation a provoqué un tollé. Le post de @SirAfuera a cumulé plus de 610 000 vues en une journée, avec des commentaires accusant X de trahison envers sa promesse de « liberté d’expression absolue » sous Elon Musk. Frédéric Baldan renchérit en pointant du doigt l’article 151 du Code pénal belge, qui punit l’entrave volontaire à la diffusion d’informations sans ingérence publique. « En tant que consommateur, ils sont par ailleurs trompés par un agissement déloyal de la part de X » conclut Baldan.
Pourquoi cela contredit les droits fondamentaux : l’Article 11 de la charte de l’UE en péril
Au cœur de la controverse se trouve l’article 11 de la Charte des droits fondamentaux de l’Union européenne, un pilier du droit communautaire ayant force de traité. Cet article garantit la « liberté d’expression et d’information » : tout individu a le droit de tenir des opinions et de recevoir ou de communiquer des informations ou des idées sans ingérence d’une autorité publique et sans considération de frontières.
Or, la « déamplification » de X constitue précisément une telle ingérence, même si elle émane d’un acteur privé. Comme le souligne Baldan dans un thread viral : « Le ‘Freedom of Reach’ fait bien partie de la ‘Freedom of Speech’ ! C’est l’article 11 qui traite de la ‘Liberté d’expression et d’information’. » En filtrant des contenus légaux sans motif clair ni appel possible, X ne se contente pas de modérer ; elle restreint l’accès à l’information, favorisant une bulle idéologique où seuls les contenus « approuvés » circulent librement.
Un autre post d’@Outofnone1 illustre cela avec une image de la Charte : « X censure (filtre) des contenus qui n’enfreignent ni la loi, ni les règles mêmes de X. » Cela pose un problème éthique et juridique majeur. Dans l’UE, le Règlement sur les services numériques (DSA) impose une transparence aux plateformes, mais permet aussi des « mesures proportionnées ». Ici, l’opacité algorithmique rend ces mesures inopposables : comment contester un filtre invisible ? Cela viole non seulement l’Article 11, mais aussi le principe de proportionnalité exigé par la Cour de justice de l’UE. Des voix comme celle de Baldan appellent à informer les utilisateurs payants (abonnés Premium), trompés par un service « déloyal ».
En France, où X compte 11,5 millions d’utilisateurs, cette pratique risque d’étouffer le débat public, favorisant les discours dominants au détriment des voix dissidentes. L’exemple de France-Soir renforce cette inquiétude : un média financé par ses lecteurs, connu pour ses enquêtes sur la santé publique, se voit relégué au rang de « contenu sensible » pour avoir osé questionner les narratifs officiels.
C’est une censure « douce » qui mine la démocratie sans faire de bruit.

Le lien avec les aveux de Google : un schéma mondial de pression gouvernementale
Cette affaire n’est pas isolée. Elle fait écho aux aveux récents de Google (via sa maison-mère Alphabet) aux États-Unis, révélés en septembre 2025. Sous pression de l’administration Biden, YouTube a admis avoir censuré des contenus sur le COVID-19 – même ceux ne violant pas ses règles internes – pour complaire aux autorités. Dans une lettre au Congrès, Google reconnaît avoir supprimé ou déamplifié des vidéos politiques et médicales, promettant désormais de réintégrer les comptes bannis pour « opinions politiques ». Les chaines YouTube de France-Soir ont ainsi été restaurées, bannies pour des discours sur les élections ou le COVID au motif qu’elles « n’enfreignaient pas les règles de la communauté. » Avec comme seule excuse un « désolé pour ce dérangement » ; un dérangement de pratiquement 5 ans dans le cas de France-Soir.
Ce parallèle est frappant : comme X sous le DSA européen, Google a cédé à des injonctions gouvernementales, transformant des plateformes privées en outils de régulation publique. Aux USA, cela soulève des questions sur le Premier Amendement, qui protège la liberté d’expression contre l’État – mais pas contre les entreprises privées sous pression. En Europe, le DSA amplifie ce risque, déléguant la censure aux géants du numérique. Xavier Azalbert, de France-Soir, y voit un « masque qui tombe ». Résultat ? Une harmonisation transatlantique de la « modération proactive », où les contenus « sensibles » (souvent critiques envers le pouvoir) sont étouffés préventivement.
L’invisibilisation de France-Soir sur X s’inscrit dans cette logique, rappelant comment des médias indépendants ont déjà été ciblés lors de la crise COVID pour leurs analyses critiques.
Vers une Résistance Numérique ?
La viralité de la vidéo de Claire Dilé – relayée par des milliers de posts sur X – prouve que les utilisateurs ne sont pas dupes. Des appels à boycotter les abonnements Premium ou à migrer vers des alternatives décentralisées émergent. Mais la vraie bataille se joue au Parlement : renforcer la transparence des algorithmes et imposer des recours rapides contre les « filtres invisibles ».
En fin de compte, cette affaire rappelle que la liberté d’expression n’est pas un slogan marketing, mais un droit inaliénable. Si les plateformes comme X ou Google continuent à jouer les censeurs sous couvert de « granularité », c’est la démocratie elle-même qui risque la déconnexion.
N’est-ce pas aux citoyens, de réclamer plus : non pas moins de modération, mais une modération juste, équilibrée, transparente et respectueuse de nos droits ?
Note : audition à l’Assemblée Nationale et transcript de l’audition.