Meta s’oppose toujours plus ouvertement à la législation européenne. Deux semaines après avoir fait part de sa décision de contester devant la justice européenne une amende de 200 millions d’euros pour non-respect des règles sur l’utilisation des données personnelles, dans le cadre du Digital Markets Act (DMA), la firme californienne a annoncé son intention de ne pas signer le code de bonnes pratiques de l’UE pour les IA à usage général (GPAI). “L’Europe fait fausse route en matière d’IA”, estime la Tech dirigée par Mark Zuckerberg.
L’IA Act, adopté en 2024, est le premier cadre juridique global que l’Union européenne consacre à la régulation des systèmes d’intelligence artificielle. Il repose sur une classification des systèmes d’IA selon leur niveau de risque et impose des obligations techniques et juridiques proportionnellement à ces différents niveaux. Les systèmes jugés inacceptables, comme la manipulation cognitive à grande échelle ou la reconnaissance faciale en temps réel dans l’espace public, sont interdits.
L’IA “freinée” en Europe, selon Meta
Dès son adoption, l’IA Act a été critiqué à la fois par l’industrie technologique, des groupes de défense des droits numériques, et certains États membres. Les grandes entreprises du secteur dénoncent une régulation trop lourde qui pourrait freiner l’innovation en Europe, au profit de concurrents américains ou chinois moins encadrés. Plusieurs reprochent également un manque de clarté dans l’application des règles aux modèles d’IA dits “à usage général”, comme les grands modèles de langage.
En parallèle, la Commission européenne a mis en place un code de conduite non contraignant, en coordination avec les entreprises du secteur, pour encadrer dès à présent les pratiques liées à l’IA générative et préparer l’entrée en vigueur progressive du texte. Ce code, dont la version finale a été publiée le 10 juillet, se base sur des principes de transparence, de traçabilité et de gestion des risques pour anticiper les obligations légales tout en évitant une application immédiate trop brutale pour le secteur.
Si la société française Mistral AI et le créateur de ChatGPT, OpenAI, ont annoncé qu’ils signeraient le code, Meta rechigne à faire pareil. Le groupe californien a annoncé qu’il ne signera pas le code des bonnes pratiques de l’UE pour les IA à usage général (GPAI).
C’est le directeur des affaires internationales de Meta, Joel Kaplan, qui en a fait l’annonce. “Le Code de conduite de la Commission européenne pour les modèles GPAI étouffera le développement et le déploiement des modèles d’IA de pointe, et freinera la croissance économique de l’Europe. Meta ne peut pas le signer”, a-t-il écrit sur un post X contenant le communiqué intégral.
De son avis, “l’Europe prend une mauvaise direction concernant l’IA. Nous avons examiné attentivement le Code de conduite (…) qui introduit un certain nombre d’incertitudes juridiques pour les développeurs de modèles, ainsi que des mesures qui vont bien au-delà du champ d’application de l’AI Act”, estime-t-il.
Rappelant que “plus tôt ce mois-ci, plus de 40 des plus grandes entreprises européennes ont signé une lettre demandant à la Commission de « stopper le compte à rebours » dans sa mise en œuvre”, il a ajouté que Meta partageait “les préoccupations soulevées par ces entreprises selon lesquelles cette réglementation excessive freinera le développement et le déploiement des modèles d’IA de pointe en Europe”.
Des relations déjà tendues
La décision de Meta a fait réagir des députés européens, qui rejettent l’argument de la société américaine selon lequel le code “va au-delà de la loi sur l’IA”. “Le fait que Meta ne souhaite pas soutenir cette norme minimale est un signal fatal pour la transparence, la sécurité et la responsabilité européenne”, a ajouté Axel Voss, membre du Parti populaire européen (PPE).
La Commission avait averti que les entreprises qui ne signeraient pas le code pourraient faire l’objet d’un contrôle plus strict de leur conformité avec l’AI Act. Ceci pourrait aggraver les conflits entre Meta et Bruxelles, dont la relation est déjà tendue.
En avril 2025, la Commission européenne a infligé une amende de 200 millions d’euros à Meta pour ne pas avoir respecté les règles du Digital Markets Act (DMA) encadrant l’utilisation des données personnelles des utilisateurs. Cette sanction, la première à être prononcée dans le cadre du nouveau règlement, vise le modèle controversé “payer ou consentir” proposé par Meta, qui impose aux usagers de Facebook et Instagram de choisir entre payer un abonnement pour ne pas être ciblés par la publicité ou accepter que leurs données soient utilisées à des fins de profilage publicitaire.
Bruxelles a considéré que cette alternative forçait la main des utilisateurs et ne répondait pas aux exigences européennes relatives à la liberté de consentement. Meta a immédiatement contesté la décision, qualifiant l’amende d’”incorrecte et illégale” et annonçant faire appel devant le Tribunal de l’Union européenne