Pour alimenter son IA, Facebook et sa maison mère Meta ne reculent plus devant rien. Quitte à fouiller dans votre téléphone afin de, à terme, utiliser vos images pour entraîner son intelligence artificielle. La fonctionnalité a été lancée en Amérique du Nord, suscitant des inquiétudes en matière de confidentialité et de respect de la vie privée.
Entre 2024 et 2025, Meta a progressivement déployé plusieurs mesures visant à utiliser les contenus des utilisateurs de ses plateformes Facebook, Instagram, Messenger et WhatsApp pour entraîner ses intelligences artificielles. Dès l’été 2024, Meta avait d’abord annoncé son intention de s’appuyer sur les publications publiques des utilisateurs européens pour améliorer ses modèles d’IA, notamment LLaMA. Ce projet fut rapidement suspendu après les interventions de la Data Protection Commission (DPC) irlandaise et de la CNIL française, qui jugeaient la base juridique et la transparence du traitement incompatibles avec le RGPD.
Meta pousse à la publication des contenus privés
Moins d’un an plus tard, la société californienne est revenue à la charge, officialisant le lancement de cette politique en Europe. À ce stade, ce sont les contenus publics, que ce soit des textes, des photos, des commentaires ou toute réaction publique publiée par les utilisateurs adultes de Facebook et Instagram qui serviront désormais à l’entraînement de ses modèles d’intelligence artificielle.
C’est en mai dernier que la mise en œuvre effective a commencé. Meta a notifié ses utilisateurs européens via des messages ou des courriels, les informant qu’ils pouvaient refuser l’usage de leurs données grâce à un formulaire d’opposition. S’ils ne remplissent pas ce formulaire, leurs contenus publics sont automatiquement inclus dans l’entraînement des modèles d’IA, en vertu d’un “intérêt légitime” défini par le RGPD.
En parallèle, Meta AI, son assistant conversationnel a été progressivement intégré à Facebook, Instagram et WhatsApp. Les interactions avec ce chatbot sont elles aussi enregistrées et utilisées pour améliorer le système.
Un nouveau cap est en train d’être franchi puisque la nouvelle fonctionnalité de Meta ne cible pas que les contenus publics mais aussi privés. Cette fois-ci, Facebook ira chercher ces contenus dans les téléphones de ses utilisateurs.
Cet outil, déjà lancé aux États-Unis ainsi qu’au Canada, propose des montages, des collages ou des effets pour rendre les images non exploitées “publiables” sur Facebook Stories ou le fil d’actualité. Dans son communiqué, le groupe américain justifie sa démarche par le fait que les utilisateurs prennent plusieurs images pour immortaliser des moments de leur quotidien sans les partager.
Si cette méthode est déjà utilisée par de nombreuses plateformes comme Google Photos, celles-ci effectuent leurs traitements localement sur le téléphone. À l’opposé de Meta, dont la solution transfère les images sur ses serveurs cloud.
Les casseroles s’entassent
Dans un communiqué, Meta assure que ces contenus resteront privés et ne seront pas exploités à des fins publicitaires ni pour un entraînement de ses modèles de l’IA. Sauf si les utilisateurs éditent ses images avec l’outil de Meta et les publient. “Cela signifie que les contenus de la pellicule téléchargés via cette fonctionnalité pour faire des suggestions ne seront pas utilisés pour améliorer l’IA de Meta. Des améliorations de l’IA de Meta ne pourront être apportées que si vous modifiez les suggestions avec nos outils d’IA ou si vous les publiez sur Facebook”, explique Mari Melguizo, porte-parole du groupe.
Qui veut bien croire Mark Zuckerberg, ce baron de la data… À ce stade, la fonctionnalité n’est disponible qu’en Amérique du Nord. Les règles du RGPD retardent ainsi son lancement. La principale source de préoccupations ne réside pas uniquement dans l’exploitation des contenus publics pour nourrir l’IA, ou dans le fait de promouvoir, à l’aide d’outils dynamiques, la diffusion de contenus privés afin de pousser leurs propriétaires à les publier, mais dans le transit des images dans les serveurs de Meta.
En 2023, Meta a admis avoir entraîné ses modèles avec des contenus publics de Facebook et Instagram dont la publication remontait à 2007. La société traîne une longue histoire de mensonges et de violations concernant la gestion des données personnelles de ses utilisateurs. Le scandale le plus retentissant reste celui de Cambridge Analytica, où les informations de près de 87 millions de comptes ont été utilisées à des fins politiques sans consentement. Cette affaire a abouti à des condamnations massives : 5 milliards $ d’amende par la Federal Trade Commission (FTC) américaine en 2019, 500 000 € au Royaume-Uni, et 725 millions $ versés en 2022 pour solder les recours collectifs.
Depuis, Meta a multiplié les défaillances, entre fuites de millions de données, amendes et sanctions pour violations des règles en matière de gestion de la data des utilisateurs, adultes ou mineurs, en Europe comme aux États-Unis.