Tim Berners-Lee alerte : l’IA pourrait faire s’effondrer l’économie publicitaire du web – partie I


L’intelligence artificielle (IA) redéfinit nos interactions quotidiennes, et pourtant une voix éminente retentit pour alerter sur un risque existentiel pour le web tel que nous le connaissons. Sir Tim Berners-Lee, l’inventeur du World Wide Web en 1989, a récemment mis en garde contre une menace qui pourrait ébranler les fondations économiques d’Internet. Lors du sommet Financial Times Future of AI à Londres, il a prédit que les modèles de langage large (LLM, comme ChatGPT ou Gemini) pourraient « faire s’effondrer » le modèle publicitaire qui soutient l’ensemble de l’écosystème numérique. Cette déclaration, relayée par le Financial Times et viral sur le réseau social X, soulève des questions profondes : pourquoi le père du web voit-il en l’IA un danger si imminent ? Et quelles en sont les implications concrètes ?

 
Qui est Tim Berners-Lee, et pourquoi ses mots pèsent-ils si lourd ?

Sir Tim Berners-Lee n’est pas un commentateur lambda. Physicien britannique, il a inventé le web au CERN en Suisse, en combinant hypertexte, protocoles HTTP et URLs pour créer un réseau interconnecté et ouvert. Contrairement à d’autres pionniers, il a choisi de ne pas breveter son invention, la rendant gratuite pour l’humanité. Aujourd’hui, à 70 ans, il dirige Inrupt, une entreprise qui promeut le projet Solid – une plateforme décentralisée pour redonner le contrôle des données aux utilisateurs. Son avertissement n’est donc pas celui d’un sceptique de l’IA, mais d’un visionnaire qui a vu naître le web et qui en anticipe la possible fin.

Lors de ce sommet, entouré de figures comme le président de Mozilla, Mark Surman, Berners-Lee a expliqué que l’IA n’est pas intrinsèquement mauvaise – il en est même cofondateur d’une initiative liée. Mais son adoption massive par les agents automatisés risque de rompre le fragile équilibre économique du web.

 
La logique implacable : pourquoi l’IA menace-t-elle le modèle publicitaire ?

Le web repose sur un pilier central : la publicité ciblée. Des géants comme Google (Alphabet) et Meta génèrent des milliards grâce aux « eyeballs » – les regards humains qui cliquent sur des pubs en naviguant sur des sites. Selon l’Interactive Advertising Bureau (IAB), ce marché pèse environ 398 milliards de dollars en 2025. Mais voici où l’IA entre en scène comme un cheval de Troie.

Berners-Lee l’explique sans détour : « Si les pages web sont toutes lues par des LLM… les gens demandent les données au LLM et celui-ci produit simplement le résultat, le modèle économique publicitaire du web commence à s’effondrer. » En clair, les LLM – ces IA conversationnelles – « lisent » le web en masse pour entraîner leurs modèles ou répondre aux requêtes. Mais de plus en plus, elles synthétisent l’information sans que l’utilisateur n’ait à visiter le site source. En résultent zéro impression publicitaire, zéro clic, zéro revenu pour les éditeurs.

Pourquoi cela arrive-t-il ? Parce que l’IA optimise l’expérience utilisateur : pourquoi cliquer sur un lien si une réponse concise et personnalisée arrive directement ? Berners-Lee insiste sur le fait que tout le monde assume encore qu’un humain lit la page, mais bientôt, ce seront des bots. « Si tout le monde suppose qu’un humain lit la page, mais qu’en fait c’est un grand modèle de langage qui la lit et que l’humain ne le fait pas, alors nous avons un problème. » Ce n’est pas une vue futuriste : c’est déjà en cours. Les entreprises comme DoubleVerify préparent déjà leurs outils pour détecter les vues par bots plutôt que par humains.

Pour l’instant, pas de panique immédiate. Alphabet a rapporté 100 milliards de dollars de chiffre d’affaires trimestriel, et Meta 51,2 milliards. Mais ces mêmes géants investissent des milliards dans l’IA – celle qui pourrait bien saper leur poule aux œufs d’or. Berners-Lee voit un « effet domino » : sans revenus publicitaires, les sites ne pourront plus produire du contenu de qualité, rendant le web moins attractif, et donc encore moins visité.

 
Des exemples concrets : l’IA en action, déjà destructrice

Pour comprendre pourquoi Berners-Lee est si alarmiste, regardons des cas réels où l’IA contourne déjà le web traditionnel.

Les aperçus IA de Google : depuis 2024, Google intègre des « AI Overviews » (aperçus IA) dans ses résultats de recherche. Demandez « meilleure recette de tiramisu », et au lieu d’une liste de liens vers des blogs culinaires (où des pubs pour du café ou des ustensiles attendent), vous obtenez un résumé généré par l’IA, compilé à partir de plusieurs sources. En résultent le fait que les clics vers les sites originaux chutent de 20 à 30 % selon des études internes de publishers comme le New York Times. Ces médias, qui dépendent des pubs pour survivre, perdent des millions. Exemple : un site comme Allrecipes.com voit son trafic baisser, privant ses annonceurs de visibilité.

ChatGPT et les synthèses instantanées : imaginez que vous interrogez ChatGPT sur « les dernières nouvelles sur l’élection américaine ». L’IA puise dans des articles du Washington Post ou du Guardian, mais vous n’allez nulle part. Pas de bannière pub pour un VPN ou un livre politique. OpenAI, qui gère ChatGPT, scrape (parcourt) le web pour s’entraîner, mais ne paie pas les créateurs. Un cas concret : en 2025, des journalistes d’investigation ont vu leurs scoops sur l’IA elle-même résumés par des bots sans attribution ni trafic retour. Cela entraine donc une diminution des incitations à enquêter, et un web appauvri en contenu original.

Perplexity AI, le « Google killer » conversationnel : cet outil de recherche IA répond directement à des questions complexes comme « comparaison des vaccins COVID-19 » en agrégeant des données médicales de sites comme Mayo Clinic ou WebMD. Les utilisateurs adorent : réponses rapides, sans pubs intrusives. Mais pour les sites sources, c’est la catastrophe. Une étude de SimilarWeb montre que Perplexity a réduit le trafic vers des portails santé de 15 % en six mois. Pire, si les LLM deviennent des « agents » autonomes (comme ceux testés par Anthropic), ils négocieront achats ou réservations sans passer par des sites e-commerce, vidant les pubs affiliées.

Ces exemples illustrent le cercle vicieux : la diminution du traffic entraine une diminution des publicités, qui a son tour entraine une baisse des contenus et donc un web moins utile, poussant encore plus vers l’IA fermée.

 

Les implications : un web « inhumain » et des solutions à inventer

Berners-Lee ne s’arrête pas à l’aspect économique. Il craint un web « illisible » et « inhumain », où les machines parlent aux machines, marginalisant les humains. Les pubs hyper-personnalisées, déjà critiquées pour leur surveillance intrusive (« elles rendent les gens fous et leur donnent l’impression d’être surveillés »), pourraient s’aggraver si l’IA les intègre directement dans les réponses – mais cela heurterait les utilisateurs, comme le notent des replies sur X.

Mark Surman de Mozilla renchérit : le modèle publicitaire est à un « carrefour potentiel ». Il faut « ne pas laisser passer une bonne crise » pour repenser la pub. Berners-Lee propose des alternatives : des abonnements directs (comme ceux de Substack), des paiements pour l’accès aux données via Solid, ou des pubs IA-intégrées mais éthiques. Des voix sur X suggèrent même un « web post-pub » peer-to-peer, comme Holochain, sans intermédiaires.

 

Une révolution nécessaire, pas une apocalypse

L’avertissement de Berners-Lee n’est pas un cri d’alarme gratuit, mais un appel à l’action. L’IA n’est pas l’ennemie ; c’est notre inertie face à son impact qui l’est. Comme il l’a dit, il y aura du « bon contenu IA », mais seulement si nous réinventons le web pour qu’il reste humain et rentable. Les géants tech, qui « impriment de l’argent » aujourd’hui, devront s’adapter – ou risquer de voir leur empire s’effriter.

 Dans un tweet viral, l’entrepreneur Mario Nawfal résume : « La prochaine révolution du web pourrait ne pas être construite pour les gens du tout. » Espérons que Berners-Lee ait tort sur l’effondrement, mais qu’il ait raison sur la nécessité de changer.

Le web, à 36 ans, a besoin d’une mise à jour – et vite.

Dans une seconde partie, le Collectif citoyen et Xavier Azalbert explorent les conséquences de la déclaration de Berners-Lee sur la chute de la confiance liée aux biais de l’IA.





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *