« Comment Nikita Bier a passé une décennie à perfectionner le contrôle psychologique des adolescents — et l’applique maintenant à tout le monde chez X »
« Repenser la démocratie. »
C’était le slogan de Politify en 2011. Un projet d’un étudiant de Berkeley qui est devenu viral pendant l’élection. Quatre millions d’utilisateurs en un mois. Une couverture médiatique nationale. Une histoire édifiante sur l’utilisation de la technologie pour aider les électeurs à comprendre comment les politiques les affecteraient.
Nikita Bier avait 22 ans lorsqu’il a découvert quelque chose de profond : les Américains votent contre leurs intérêts financiers personnels plus que toute autre nation du monde occidental.
La plupart des gens verraient cela comme un problème à résoudre. Un fossé à combler grâce à une meilleure information et à l’éducation.
Bier a vu là une occasion d’exploiter la situation.
Ce qu’il a réellement retenu de Politify n’était pas simplement que les électeurs sont irrationnels. Ce qu’il a compris, c’est que « la rhétorique l’emporte sur la logique lorsque les systèmes sont suffisamment complexes pour que les citoyens ordinaires n’aient pas des heures à les décortiquer. »
Cette phrase, enfouie dans son discours TED et quelques articles de recherche de Berkeley, résume tout ce qu’il faut savoir sur ce qui a suivi. Ce n’était pas un avertissement sur les failles de l’autogouvernance ; c’était son manuel d’opération.
Bier a abandonné Politify après avoir prouvé que le concept fonctionnait. Une étude de Berkeley a montré que 6 % des utilisateurs changeaient leur choix de vote après avoir utilisé l’application. C’est suffisant pour faire basculer une élection américaine. La Knight Foundation lui a versé des fonds. Les gouvernements voulaient obtenir une licence pour la technologie.
Mais il s’est retiré de tout cela. Pas parce que la mission était accomplie, mais parce qu’il avait compris que la manipulation du comportement à grande échelle était possible, et que les contrats gouvernementaux n’étaient pas la façon la plus lucrative d’appliquer ce savoir.
Alors il a cherché un meilleur laboratoire : une population plus vulnérable psychologiquement, plus désespérée de validation, plus prête à céder ses données en échange d’une poussée de dopamine.
Il s’est mis à la chasse aux adolescents.
Le laboratoire : tbh et la science de la dépendance
En 2017, Bier a lancé tbh (« to be honest »), une application qui permettait aux lycéens d’envoyer des compliments anonymes les uns aux autres via des sondages. Le discours était pur et positif : « Rendre cette génération plus heureuse. » Mettre fin au harcèlement qui gangrenait les autres applications anonymes. Créer un espace de bienveillance.
La réalité était bien plus sinistre.
Pour utiliser tbh, il fallait donner à l’application l’accès à vos contacts, à votre localisation, à votre école, à votre graphe social, à chaque vote que vous exprimiez dans un sondage, à chaque notification à laquelle vous répondiez, à chaque pic de dopamine que l’application vous procurait. L’application ne mesurait pas le bonheur ; elle mesurait la dépendance.
Quels messages ont suscité le plus d’engagement ? Quels récompenses incitaient les utilisateurs à revenir ? À quelle vitesse les adolescents réagissaient‑ils lorsqu’ils « gagnaient » un sondage ? Qu’est‑ce qui les rendait anxieux lorsqu’ils n’étaient pas choisis ? Chaque donnée était une leçon de manipulation comportementale.
Et la stratégie de croissance ? Une véritable guerre psychologique. Bier créait un compte Instagram privé dédié à un lycée précis, suivait les élèves qui indiquaient cet établissement dans leur biographie, puis, à un moment prédéfini, rendait le compte public avec un lien pour télécharger l’application.
Rareté artificielle. Peur du manque manufacturé. Anxiété sociale utilisée comme arme. Il qualifiait cela de « tour psychologique ». Ce n’est pas un jargon marketing ; c’est une confession.
Facebook a racheté tbh quelques mois plus tard. Pas pour le produit, mais ils l’ont fermé moins d’un an après. Ils l’ont acquis pour ce que Bier avait appris : les données comportementales, les techniques de manipulation, la preuve qu’on pouvait créer une dépendance psychologique à grande échelle chez les adolescents.
Mode Dieu : quand la partie silencieuse est dite à haute voix
Ensuite, Bier a fait quelque chose qui aurait dû déclencher tous les signaux d’alarme : il a créé Gas, un clone quasi identique de tbh. Les mêmes sondages anonymes, la même ingénierie dopaminergique, les mêmes tactiques de croissance, le même accès obligatoire aux contacts et aux données de localisation.
Mais cette fois, il a ajouté quelque chose de plus sombre : le « Mode Dieu ». Contre paiement, certains utilisateurs pouvaient obtenir des indices sur qui avait voté pour eux dans les sondages. L’architecture psychologique était désormais explicite, monétisant l’insécurité en créant une asymétrie d’information. Certains adolescents pouvaient voir qui les aimait, d’autres restaient dans l’ignorance. Payer pour lever l’anxiété que nous avions programmée dans l’expérience.
Gas a explosé à 5 millions de téléchargements. Puis les rumeurs ont commencé. Des parents sur TikTok et Snapchat ont diffusé une théorie : Gas était une façade pour le trafic humain. Le canular est devenu viral. Les services de police ont émis des alertes. Les écoles ont envoyé des consignes. L’application a enregistré un taux de désinstallation de 3 % en une seule journée. L’équipe de Bier a reçu des menaces de mort.
Les accusations de trafic étaient infondées. L’application ne disposait d’aucune messagerie, aucun suivi de localisation, aucune fonctionnalité pouvant permettre le trafic.
Mais ce qui est révélateur, c’est que le canular a fonctionné parce que l’application semblait déjà prédatrice. Les parents ne pouvaient pas articuler pourquoi, mais ils ressentaient quelque chose de mauvais. Les adolescents ne pouvaient pas l’expliquer, mais ils se sentaient manipulés. L’application était conçue pour exploiter la peur du rejet social, monétiser l’insécurité adolescente et extraire des données comportementales sous le couvert de la « positivité ».
Lorsque les parents ont entendu parler de « trafic humain », ils n’avaient pas besoin de preuves. L’ensemble du design ressemblait déjà à une exploitation. Discord a acquis Gas en 2023. Encore une fois, pas pour le produit, mais pour la preuve que les techniques de Bier étaient reproductibles.
Le recrutement : quand la liberté d’expression rencontre le contrôle comportemental
Aujourd’hui, il est chef de produit chez X.
Elon Musk a acheté Twitter en promettant de rétablir la liberté d’expression, de faire de la plateforme la place publique numérique, de mettre fin à l’invisibilisation de contenu et à la manipulation algorithmique, et d’apporter de la transparence à la modération de contenu.
Puis, à la fin 2024, alors que Bluesky et Threads gagnaient du terrain et que X perdait des utilisateurs, Elon a eu besoin de quelqu’un capable de rendre la plateforme plus addictive. Quelqu’un qui comprenne comment concevoir une dépendance psychologique. Quelqu’un qui ait passé une décennie à apprendre à garder les gens en train de faire défiler le fil même lorsqu’ils savent qu’ils devraient partir.
Il a engagé Nikita Bier.
Un homme dont toute la carrière repose exactement sur le contraire de ce qu’Elon a promis : l’opacité plutôt que la transparence, la manipulation comportementale plutôt que l’engagement authentique, des systèmes de contrôle psychologique déguisés en construction communautaire.
L’expertise de Bier ne résidait pas dans la création de communautés, mais dans la construction de cages qui donnent l’impression d’être des communautés.
Et, soudainement, de manière mystérieuse et prévisible, les utilisateurs signalent exactement ce à quoi on pourrait s’attendre de la part de quelqu’un dont toute la carrière s’est construite autour de la manipulation comportementale déguisée en innovation.
Portée disparue sans explication. Comptes rendus invisibles pour « activité non authentique ». Critiques bloqués lorsqu’ils posent des questions. Complexité empêchant la compréhension. Opacité empêchant les contestations.
L’architecte n’aime pas les questions
Lorsque les utilisateurs ont commencé à remarquer ces schémas – des comptes vérifiés avec de nombreux abonnés suspendus sans raison claire – ils ont contacté directement Bier. En tant que chef de produit, il aurait pu intervenir.
Il les a bloqués.
Quand quelqu’un a signalé que son adresse personnelle avait été publiée en ligne et a demandé si cela violait la politique de la plateforme, Bier a répondu : « Merci pour le signalement. J’ai transmis le message à notre équipe politique et cet utilisateur a été suspendu. » Puis, lorsque le même utilisateur l’a interrogé sur le dysfonctionnement du système de signalement et « Lorsque le même utilisateur l’a pressé sur les raisons pour lesquelles le système de signalement était défaillant et pourquoi les utilisateurs organisant des campagnes de divulgation de données personnelles n’étaient pas suspendus automatiquement, Bier les a également bloqués. »
L’architecte comportemental n’aime pas qu’on remette en question son architecture.
Le motif le plus révélateur est ce que l’algorithme promeut désormais.
Une selfie d’un compte moyennement connu ? 129 millions de vues.
Des recherches approfondies et du journalisme d’enquête ? Étouffés.
Du contenu meme ? 6,2 millions de vues.
Des liens externes vers des articles académiques ou des sources primaires ? Enfouis.
Bier l’a annoncé explicitement : « À partir de la semaine prochaine, nous testerons une nouvelle façon de partager et d’interagir avec les liens web sur X. L’objectif sera de garantir que tout le contenu de la plateforme bénéficie d’une visibilité égale sur le fil d’actualité. »
Traduction : nous allons enterrer les liens externes, ceux qui offrent vérification, contexte, sources primaires, au profit du contenu natif qui attire l’engagement : selfies, memes, contenus colériques – tout ce qui vous maintient sur la plateforme, faisant défiler, interagissant, nourrissant l’algorithme.
Le modèle économique est évident : l’engagement = revenus publicitaires. Les liens externes renvoient les utilisateurs ailleurs. Moins de temps passé, moins de données récoltées, moins de revenus. Bier a été recruté pour résoudre un problème de revenu en rendant X psychologiquement inévitable.
Il applique à tous ce qu’il a appris auprès des adolescents.
Crédit Social sous un Autre Nom
Puis est arrivée la « vérification d’authenticité ». Bier a annoncé que les profils afficheraient bientôt de nouvelles informations, comme le pays dans lequel le compte est basé, afin d’aider les utilisateurs à « vérifier l’authenticité ».
Un système de notation sociale sous un autre nom. La géographie comme indicateur de confiance. Les schémas comportementaux comme marqueurs d’authenticité.
Voici ce que personne ne dit clairement : Bier n’a pas passé la dernière décennie à créer des applications pour aider les gens. Il l’a passée à construire l’opération de collecte de données comportementales la plus sophistiquée de l’histoire.
Politify lui a montré que le comportement humain peut être manipulé grâce à la complexité de l’information et à des déclencheurs psychologiques. tbh et Gas lui ont enseigné exactement quels déclencheurs fonctionnent, comment engendrer la dépendance, comment monétiser l’insécurité et comment extraire des données comportementales à grande échelle tout en les présentant comme de la « construction communautaire ».
Et maintenant il déploie tout ce qu’il a appris chez X, la plateforme qui contrôle le discours public.
Réfléchissez à ce qu’il sait : comment pousser les gens à agir contre leurs propres intérêts, comment créer une dépendance psychologique, comment cartographier les réseaux sociaux, comment déclencher des réponses émotionnelles, comment fabriquer un consensus, comment supprimer la dissidence tout en maintenant l’illusion d’ouverture, comment garder les gens piégés dans des systèmes qu’ils savent nuisibles.
Et aujourd’hui, c’est lui qui décide qui voit ce que vous publiez, qui vous voyez, ce qui est amplifié, ce qui est enterré.
Pourquoi cela importe
C’est la raison pour laquelle cela compte — pas parce que ce schéma est nouveau, mais parce que la collecte de données comportementales associée au contrôle de l’infrastructure crée une réalité fabriquée. Or, une réalité fabriquée est incompatible avec le consentement éclairé.
Un peuple libre a besoin d’un consentement éclairé. Or le consentement éclairé exige : l’accès à l’information, la capacité de vérifier cette information, la compréhension de la façon dont les décisions vous affectent, et la transparence des systèmes de pouvoir. Toute la carrière de Bier a consisté à détruire ces quatre piliers.
La complexité empêche la compréhension. L’opacité empêche la vérification. Les déclencheurs psychologiques supplantent l’analyse rationnelle. L’architecture impose la conformité tout en maintenant l’illusion du choix.
Vous pensez participer. Vous êtes géré.
Vous pensez être entendu. Vous êtes supprimé.
Vous pensez comprendre le système. Il est délibérément incompréhensible.
Vous pensez faire des choix libres. Vous répondez à des déclencheurs conçus.
Les utilisateurs commencent maintenant à se demander si Bier se montre indifférent à leur sécurité, s’il favorise le harcèlement pouvant entraîner des dommages réels, ou si une personne qui approuve des publications glorifiant l’assassinat politique « libre et légal » devrait contrôler qui est entendu sur une plateforme qui façonne le discours public.
Ce n’est pas de l’hyperbole. C’est la vraie question que les utilisateurs posent dans les captures d’écran. Parce que lorsqu’une personne avec son historique prend le contrôle de qui a la parole, bloque ensuite les victimes de divulgation de données personnelles, supprime les preuves d’incitations à la violence et utilise le critère « inauthenticité » contre les critiques, les gens cessent de croire que la censure vise la santé de la plateforme.
Ils commencent à penser qu’il s’agit de contrôle.
Et ils ont raison.
La Cage
La cage que vous construisez pour les autres devient votre propre prison.
Bier croyait qu’il créait des outils pour gérer le comportement d’autrui. Il découvre qu’il a bâti sa propre cage. La vérification d’authenticité le traque. La suppression algorithmique crée un environnement où chacun soupçonne ses motifs. La complexité et l’opacité rendent même ses propres actions sinistres.
On ne peut pas bâtir des systèmes de contrôle sans finir par être contrôlé par eux.
« Rethink Democracy » n’était pas destiné à l’améliorer. C’était pour remplacer le discours public authentique par une conformité façonnée comportementalement. Apprendre à manipuler le comportement des électeurs. Perfectionner les techniques sur des adolescents psychologiquement vulnérables. Les déployer à l’échelle mondiale sur l’infrastructure même du discours public.
La récolte de données est terminée. Les systèmes de contrôle sont déployés.
Elon vous a promis une place publique. Il a embauché quelqu’un qui se spécialise dans la construction de belles prisons.
La seule question qui reste est : continuerez‑vous à participer ?
Traduction : fr.sott.net
