Mathilde Saliou est journaliste indépendante, spécialisée dans les questions numériques. Elle est autrice de Technoféminisme : comment le numérique aggrave les inégalités (ed. Grasset). Elle travaille principalement pour le média Next, spécialisé sur le numérique. Elle collabore aussi avec La Déferlante, 20 Minutes et Alternatives économiques.
Reporterre — Quand on voit les gens qui représentent le monde de l’Intelligence artificielle (IA) aujourd’hui, on pense à Elon Musk, Yann Le Cun, Marc Zuckerberg… Mais aucun nom de femme ne vient à l’esprit. Cela reflète-il la réalité ?
Mathilde Saliou — C’est la réalité, bien qu’un peu déformée. L’IA étant un sous-domaine des nouvelles technologies, elle est soumise aux mêmes biais que l’industrie de la tech qui emploie très peu de femmes. C’est problématique, car c’est désormais l’un des secteurs dans lesquels on fait les plus belles carrières, au sens financier. Le fait que les femmes soient si peu nombreuses à y accéder participe au renforcement des inégalités salariales.
Dans les nouvelles technologies, environ un quart seulement des employés sont des femmes, et elles sont généralement confinées à des postes subalternes : des fonctions support dans le juridique, dans les ressources humaines, dans la comptabilité… Elles sont peu nombreuses à avoir les mains dans le code et à construire les outils numériques que nous utilisons au quotidien.
Cela dit, des femmes comme Timnit Gebru — chercheuse en éthique de l’intelligence artificielle —, Margaret Mitchell — spécialiste des biais algorithmiques — et Joëlle Barral —directrice de la recherche fondamentale en IA chez Google DeepMind — sont des figures actuelles de l’intelligence artificielle.
Comment se fait-il qu’il y ait si peu de femmes dans les nouvelles technologies ?
Dans les années 1960-1970, les entreprises se sont mises à acheter de plus en plus d’ordinateurs : il fallait donc du personnel qualifié pour les fabriquer et les encoder. Pour recruter, on a créé des cursus de formation en informatique. C’est à partir de ce moment-là, qu’on a fait entrer les clichés.
Pourtant, dans le monde occidental et notamment aux États-Unis, il y avait beaucoup de femmes dans l’industrie de la tech lorsque celle-ci s’est construite, dans la première partie du XXᵉ siècle. À cette époque, la plupart des calculs étaient faits par des humains et pas par des machines. Ce n’étaient pas des emplois très valorisés, donc, de manière assez classique, on y trouvait beaucoup de femmes.
Ces femmes ont pu rester dans l’industrie quand celle-ci a commencé à se formaliser avec l’émergence des ordinateurs, juste après la Seconde Guerre mondiale. Mais même si elles étaient entrées dans le domaine, elles n’avaient pas de rôle d’encadrement ou de chefferie qui leur permettent de s’inscrire dans l’histoire.
À l’époque, on pensait que les rôles valorisables et valorisés de l’informatique, c’étaient surtout ceux dédiés au hardware, la fabrication des machines et des composants. Les femmes étaient assez nombreuses dans la partie qu’aujourd’hui on qualifierait de software, la fabrication des logiciels. Ce sont elles qui ont fabriqué les langages permettant d’interagir avec les machines pour leur faire faire des opérations.
« Les publicitaires ont massivement promu les ordinateurs à destination des hommes »
Mais par la suite, pour savoir qui embaucher, et comment, on a fait appel à des experts qui sont arrivés à la conclusion que « les programmeurs parfaits sont dingues de puzzles, aiment prendre des risques, trouver des applications à leurs recherches et n’aiment pas les gens ». Cette phrase semble très cliché, mais elle a vraiment servi à formaliser le type de personnes qu’on cherchait dans le monde de la tech. Et ces caractéristiques étaient davantage admises chez les hommes.
Lors de l’apparition des ordinateurs personnels dans les années 1980, les publicitaires les ont massivement promus à destination des hommes et des garçons : il y avait plein de publicités où on voyait le fils et son père jouer ensemble sur un ordinateur. Un marketing encore visible dans les années 1990 pour les jeux vidéos.
Dans son livre Les oubliés du Numérique (ed. Le Passeur), Isabelle Collet relève aussi que beaucoup de figures présentées comme les pères de l’informatique et les pères de l’IA sont aussi assez misogynes. Donc l’intelligence artificielle hérite de toute cette tradition sexiste du monde des nouvelles technologies…
Ça pousse à s’interroger sur notre définition de l’intelligence artificielle. Peut-être que s’il y avait eu plus de femmes dans le monde de l’IA, on aurait considéré qu’une intelligence artificielle, c’était quelque chose de beaucoup plus relationnel, capable de mettre en connexion des objets ou des concepts différents… Et non pas cette logique très poussée sur l’optimisation, la rationalité et les probabilités.
Aujourd’hui, on voit qu’Elon Musk et Marc Zuckerberg ne se cachent plus d’adhérer à des thèses masculinistes…
Effectivement, c’est un festival depuis le début de l’année : tous les barons de la tech se rangent derrière Donald Trump, et n’hésitent pas à nourrir son idéologie viriliste. Ce qu’on voit ces dernières semaines est très inquiétant, mais pour qui on suit le sujet depuis longtemps, ce n’est pas tellement une surprise.
Tant que les entreprises de la tech avaient l’air de s’intéresser un peu aux valeurs progressistes et au bien commun, on pouvait espérer qu’elles essaient de limiter les biais existants. Ou qu’elles mettent en place des mécanismes pour éviter, par exemple, la reproduction de contenus stéréotypés ou violents.
Mais quand les patrons de ces entreprises disent plutôt : « Nous, on est pour une vision masculiniste de l’entreprise, on déteste la régulation, rangeons-nous tous derrière Donald Trump pour mettre en place une loi du plus fort », alors toutes les personnes qui sont déjà dominées dans la société vont devoir subir en plus la vulnérabilité que leur créent les machines.
En quoi l’IA peut-elle être vectrice d’inégalités ?
Depuis 2012, on développe de nouveaux modèles d’IA probabilistes qui reposent sur le machine learning, l’apprentissage automatique : on donne tout plein d’éléments à la machine à partir desquels elle trouve elle-même le chemin pour aboutir à un résultat.
On a tendance à considérer que les données qu’on lui apporte sont neutres, sauf que la manière de les choisir, de les hiérarchiser, de les collecter, ça va avoir des impacts concrets sur les résultats donnés. Le plus souvent, on entraîne ces machines à partir d’éléments qui sont disponibles librement sur Internet. Or, ce n’est pas du tout représentatif de l’intégralité de la population. Ce qu’on donne aux machines, c’est déjà très biaisé.
Dans le monde de la tech, on dit souvent : « garbage in, garbage out », en français « déchets à l’entrée, déchets à la sortie ». Si vous donnez une vision déformée à l’entrée, la machine, aussi performante soit-elle, vous donnera un résultat déformé à la sortie, parce qu’elle ne va pas inventer toute seule une manière d’égaliser les faits.
« Une forme de concentration extrême des stéréotypes qui existent dans la société »
Si vous demandez à un modèle d’IA génératif de vous produire une image de patron d’entreprise, neuf fois sur dix, il va vous donner une image d’homme blanc en costume, parce qu’il ne peut pas imaginer que ce soit une femme, quelqu’un qui ne soit pas en costume, ou quelqu’un de non-blanc. Inversement, si vous demandez de générer une image de personne qui fait du ménage, ça va quasiment être uniquement des personnes noires, probablement des femmes.
La machine n’est pas capable d’autre chose puisqu’on ne lui a donné que des images en ce sens. L’IA concentre de manière extrême les stéréotypes qui existent dans la société.
Concrètement, en quoi les femmes sont-elles particulièrement vulnérabilisées par l’IA ?
L’apparition des deepfakes — cette technologie consiste à reproduire de manière très réaliste les traits de quelqu’un grâce à l’IA, et à les placer dans des situations imaginaires —, avant même les IA actuelles, est très préoccupante.
Aujourd’hui, les chiffres montrent que plus de 98 % de ces contenus sont des deepfakes à caractère pornographique, et parmi eux, 99 % représentent des femmes. Sans leur consentement l’essentiel du temps. Ces images sont utilisées pour faire pression, pour les harceler, pour leur faire du mal, pour les faire disparaître de l’espace public…
L’IA générative permet aussi d’industrialiser les campagnes de désinformation ciblant les femmes, comme les campagnes des militants anti-avortement, en créant beaucoup plus facilement leurs contenus et en fabriquant des robots qui vont les publier sur les réseaux sociaux… L’intelligence artificielle générative, par sa propension à faciliter la production de texte et de code, augmente l’insécurité à ce niveau-là.
Qu’est-ce qui pourrait être mis en place pour limiter ces biais ?
Une piste de solution, ça peut être de mettre plus de diversité dans les équipes de fabrication de nos outils numériques, IA et autres. Sans ça, on continuera de créer des outils calibrés pour une toute petite part de la population masculine, blanche et privilégiée.
Par ailleurs, ces technologies ont des impacts très concrets sur la planète. Pour faire tourner les modèles d’intelligence artificielle générative, il y a besoin d’énormément d’énergie. Dans l’immense majorité des cas, les serveurs sont situés là où on extrait du charbon pour faire de l’électricité. L’énergie que demandent ces machines est telle qu’aux États-Unis, on a dû relancer des réacteurs nucléaires pour satisfaire les besoins de l’IA.
Lire aussi : L’insoutenable coût écologique du boom de l’IA
Une autre piste de réponse est donc de viser la frugalité. C’est d’ailleurs ce que recommande le CESE qui a sorti un rapport en amont du sommet de l’IA. L’IA frugale consiste à utiliser cette technologie là où elle est vraiment utile, par exemple, dans la santé ou dans la science, pour mettre en place des modèles qui nous permettent de mieux prévoir les évolutions climatiques…
Par contre, des modèles qui ne servent qu’à fabriquer des deepfakes dénudés pour harceler des femmes, on peut légitimement interroger leur utilité sociale ! Surtout que pour fabriquer ces images, on brûle du CO₂ et on pompe de l’eau… Personnellement, ce n’est pas tellement la définition du progrès à laquelle je souscris. La technologie n’arrête pas de nous dire qu’elle va nous nous apporter le progrès mais en l’état, elle nous apporte surtout des inégalités.
legende