L’irruption de l’IA au travail nécessite une vigilance impérative


L’intelligence artificielle, elles et eux l’ont déjà prise de plein fouet dans leur environnement professionnel. Le 10 février dernier, à quelques centaines de mètres du lieu parisien où se tenait le très officiel sommet pour l’IA voulu par Emmanuel Macron, une poignée de salarié·es étaient réuni·es au théâtre de la Concorde (VIIIe arrondissement), à l’appel du philosophe Éric Sadin, pour témoigner de ce que l’irruption des chatbots de l’IA générative et autres process automatisés fait à leur travail.

« L’IA, on en découvre partout, il est impossible de la quantifier, on fait tout pour nous cacher les informations, a témoigné Marie Vairon, secrétaire générale de la fédération Sud PTT à La Poste. Les syndicats et les postiers ne sont pas du tout informés et consultés. »

Depuis 2016, l’entreprise publique développe et expérimente de nombreux projets liés à l’intelligence artificielle, de « Pop IA » qui gère depuis 2023 les plannings des guichetiers et guichetières, à Lucy, le robot conversationnel qui répond tous les ans depuis trois ans à des centaines de milliers d’appels identifiés comme simples, notamment ceux des client·es interrogeant le solde de leur compte bancaire.

© Illustration Simon Toupet / Mediapart

« Aujourd’hui, une IA sait comment est composée ma famille, si je suis une bonne vendeuse, si j’ai été sanctionnée pendant ma carrière… sans que j’en sois aucunement informée », a pointé la syndicaliste, pour qui « l’intelligence artificielle est présente partout dans le groupe », La Poste étant « un laboratoire, qui utilise les postiers et les postières comme une expérimentation ».

Autre service public, autre femme s’alarmant de la manière dont on lui demande de travailler. Sandrine Larizza, de la CGT France Travail, a dit sa conviction que les « machines » sont là pour faire « travailler de plus en plus vite, avec de moins en moins de moyens ».

Début février, France Travail a annoncé le déploiement de deux outils élaborés par la start-up française Mistral AI. Le premier est un robot conversationnel destiné à aider les conseillers à rédiger leurs échanges écrits avec les demandeurs d’emploi, le second se charge de présélectionner des candidat·es susceptibles de correspondre à une offre d’emploi, et de les contacter par SMS « afin de les questionner sur leur intérêt ».

« À chaque fois qu’un outil technologique ou qu’un algorithme arrive, ce sont des mesures archaïques d’organisation du travail qui arrivent, a dénoncé la syndicaliste, très applaudie dans la salle comble. On fait des microtâches à la chaîne, on vit une industrialisation de nos métiers. »

Métiers menacés

La vague, qui démarre timidement dans le monde du travail français (l’OCDE juge que notre pays est l’un des derniers pour la pénétration de cette technologie dans ses entreprises), a de bonnes chances de se poursuivre dans le service public. Dans sa déclaration de politique générale le 14 janvier, le premier ministre François Bayrou n’a-t-il pas appelé de ses vœux « le déploiement de l’intelligence artificielle dans nos services publics » ?

Dans une tribune au Journal du dimanche, la ministre du travail Astrid Panosyan-Bouvet a pour sa part exhorté les entreprises à plonger dans le grand bain, jugeant qu’« en matière de compétitivité, d’emploi et de travail, le vrai risque de l’IA est que nous passions à côté », applaudissant une « innovation de rupture [qui] concerne tous les secteurs ».

Et cela, malgré les très nombreuses limites de l’IA générative, dont le modèle s’est imposé dans le débat public et la conscience publique depuis l’apparition de ChatGPT fin 2022 : coût écologique désastreux, erreurs consubstantielles au modèle probabiliste qu’utilisent ces bots, exploitation de travailleurs et travailleuses précaires des pays du Sud global pour nourrir et corriger les algorithmes.

Pour certains, « l’innovation » s’est déjà brutalement imposée. Au théâtre de la Concorde, la traductrice Pauline Tardieu-Collinet, du collectif En chair et en os, a témoigné du bouleversement déjà à l’œuvre dans son métier. « De plus en plus de contrats ne proposent plus de traduire, mais de faire de la post-édition », c’est-à-dire la révision, fastidieuse et porteuse de perte de sens, d’une traduction automatique.

« On est dépossédés de nos savoir-faire, du sens de notre travail et de notre responsabilité », a déploré la professionnelle. Les doubleurs du collectif Touche pas à ma VF ne disent pas autre chose, eux dont le remplacement par des voix de synthèse est déjà lancé dans certaines productions audiovisuelles.

Les journalistes sont également concernés. Le contre-sommet était coorganisé par Éric Barbier, journaliste à L’Est républicain et l’un des responsables nationaux du Syndicat national des journalistes. Le groupe de presse Ebra, qui a avalé tous les quotidiens régionaux de l’Est de la France, expérimente déjà avec ChatGPT, qu’il charge de relire, de corriger et de titrer certains contenus.

« On n’a pas demandé leur avis aux journalistes », a dénoncé Éric Barbier, qui rappelle que les journalistes chargés de ce rôle sont « en train de programmer [leur] propre obsolescence en utilisant cet outil ».

« Comment ne pas voir qu’en tant que paradigme industriel, l’IA a d’ores et déjà des conséquences désastreuses ? », interpelle le collectif Hiatus, qui regroupe nombre d’acteurs de la société civile, comme la LDH, La Quadrature du Net, Attac… « De l’agriculture aux métiers artistiques en passant par bien d’autres secteurs professionnels, elle amplifie le processus de déqualification et de dépossession vis-à-vis de l’outil de travail, tout en renforçant le contrôle managérial », attaque le manifeste.

Erreurs à répétition

Certaines professions sont donc en danger, et le savent. D’autres ne sont touchées que de très loin, malgré les discours volontaristes de plus en plus prégnants. « Identifier les réels cas d’usage est un vrai enjeu, la cartographie est difficile car les réalités sont très diverses selon les secteurs », souligne auprès de Mediapart Odile Chagny, économiste spécialisée dans la transformation numérique et le dialogue social à l’Institut de recherches économiques et sociales (Ires, le think tank des syndicats).

En 2013, l’étude « Frey et Osborne » réalisée par deux chercheurs de l’université britannique d’Oxford est devenue célèbre parce qu’elle annonçait que 47 % des emplois américains risquaient d’être automatisés à terme. On en est encore loin. « Il est très compliqué d’anticiper les évolutions. On nous annonçait la fin des radiologues, par exemple, et puis on s’est rendu compte que l’interprétation des images, c’est seulement 20 % de leur activité et que le reste n’est pas automatisable », explique Nicolas Blanc, secrétaire national à la transition économique de la CFE-CGC.

Dans certaines entreprises, ce ne sont plus les services des ressources humaines qui sélectionnent les bons profils mais des intelligences artificielles qui s’en occupent.

La chercheuse Pierrette Howayeck

Dans le monde du travail, on dénombre des initiatives plus ou moins éparses. Dans la banque et l’assurance, l’IA est sollicitée pour le « scoring » des client·es à venir et pour trier ou catégoriser les flots de messages à traiter dans les relations avec les assuré·es. Chez les développeurs et développeuses informatiques, l’assistance à l’écriture ou à la correction de code est déjà une réalité.

« Dans certaines entreprises, ce ne sont plus les services des ressources humaines qui sélectionnent les bons profils, mais des intelligences artificielles qui s’en occupent », a aussi rapporté le 7 février, lors d’un autre contre-sommet, la chercheuse Pierrette Howayeck, qui vient de soutenir sa thèse sur la manière dont les syndicats abordent cette nouveauté.

Dans le secteur public, c’est depuis fin 2017 que les initiatives se multiplient, avec la création du fonds pour la transformation de l’action publique. La Direction générale des finances publiques a ainsi utilisé l’IA pour établir des profils types de fraudeurs ou détecter des piscines non déclarées. Elle tente aussi de mettre en place un agent conversationnel convaincant pour échanger avec les particuliers propriétaires ou répondre aux questions concernant les rescrits fiscaux. Au ministère de l’intérieur, on l’utilise pour le contrôle de gestion et l’assistance à des missions administratives.

Le spectre de la « Shadow AI »

Pourtant, la technologie est parfois loin d’être mûre, voire simplement convaincante. Dans le média Acteurs publics, Odile Chagny explique que seuls 17 % des dossiers sélectionnés par l’IA comme fraudeurs fiscaux potentiels concernaient effectivement des erreurs volontaires. L’introduction de l’IA se traduit donc souvent pour les travailleurs et travailleuses par l’apparition de fastidieuses vérifications des résultats et par une réelle perte d’autonomie.

Dans les entreprises, les approches restent très diverses, analyse Matthieu Trubert, ingénieur chez Microsoft et coanimateur du collectif Numérique pour l’Ugict-CGT (le syndicat CGT des cadres). « Au pire, c’est une espèce de gadget inutilisable car non intégré au travail réel, ou au contraire une boîte noire à laquelle on n’a pas accès et qui délivre des données qu’on ne maîtrise pas », détaille le spécialiste.

Mais au mieux, « on a affaire à un outil bien interfacé avec les autres outils professionnels et intégrés au process de production, et où l’humain garde la maîtrise de ce qui entre et de ce qui sort de la machine ».

Pour le responsable syndical, il y a tout de même un risque, même dans les meilleures configurations possibles : « À la longue, on peut perdre le recul et l’esprit critique nécessaires pour évaluer la pertinence de ce qui sort de cet outil. Il devient alors une sorte d’oracle, qu’on consulte sans le questionner. »

« Oracle », c’est précisément le mot qu’emploie lui aussi Nicolas Blanc, de la CFE-CGC, pour décrire l’utilisation de l’IA générative qu’il voit se répandre : on interroge ChatGPT et ses clones comme un banal moteur de recherche, sans conscience du coût écologique et social qui y est rattaché. Dans un billet de blog du Club de Mediapart, il exhorte à ne pas « continuer à utiliser ces outils de façon aussi inutile si nous souhaitons en faire un usage responsable et surtout durable ».

Il est vrai qu’un peu partout, les salarié·es utilisent discrètement les outils existants pour les assister dans leur travail : rédaction de courriels, élaboration de présentation, traduction, prise de notes… C’est la « shadow AI » (IA clandestine), dont certains évaluent l’utilisation à 20 % des employé·es de bureau et cadres. Certaines grandes entreprises du numérique ont d’ailleurs interdit cette pratique à leurs troupes, face au risque non maîtrisé de fuites de données internes confidentielles, qui peuvent se retrouver ingurgitées par la machine, et donc stockées pour une durée indéterminée dans sa mémoire.

Discussions à chaque étape

D’où la nécessité, selon les syndicats, de se saisir du sujet partout où cela est possible, quitte à imposer la discussion à l’employeur. Et cela fait plusieurs années que les organisations représentant les salarié·es se sont mises en ordre de bataille.

Dès le printemps 2021, Odile Chagny à l’Ires, la CFE-CGC et divers partenaires, dont l’U2P, l’organisation patronale des artisans et indépendants, ont lancé SeCoIA Deal, un projet cofinancé par la Commission européenne pour étudier les « défis » posés au dialogue social dans les entreprises par l’intelligence artificielle.

Puis un second projet plus large, Dialia, a été coordonné jusqu’au printemps 2024 par Odile Chagny, avec la CFDT, la CGT, FO et la CFE-CGC. Il a abouti à la formalisation d’un cadre méthodologique sur la manière de mener les discussions et négociations autour de la transformation-numérisation du travail.

Le constat est commun, quel que soit le syndicat : les représentant·es du personnel sont généralement écarté·es du processus de décision avant le déploiement des systèmes d’IA. Les employeurs sont bien souvent frileux à l’idée de les associer à toutes les étapes de la prise de décision, angoissés par ce qui est perçu comme une lourdeur administrative ou comme un éteignoir mis sur la dynamique du « progrès ».

Par ailleurs, les détails des choix techniques sont très souvent délégués à des cabinets de consultants extérieurs, accroissant le risque de créer une « boîte noire » dont personne dans l’entreprise ne peut soulever le capot pour savoir comment elle fonctionne.

Il y a un gros enjeu sur l’incertitude et les erreurs produites par l’outil dans ses résultats même, qui peut entrer en résonance avec la conduite “agile” des projets en entreprise.

Odile Chagny, chercheuse à l’Ires

« Le cycle de vie de l’IA est différent de celui des autres évolutions technologiques : tout est très incertain, l’expérimentation est clé car on ne peut en mesurer les effets concrets dans une entreprise qu’une fois que la technologie est lancée, signale Nicolas Blanc. Et c’est donc dès la phase d’expérimentation que le dialogue social doit avoir lieu. »

« Il y a un gros enjeu sur l’incertitude et les erreurs produites par l’outil dans ses résultats même, qui peut entrer en résonance avec la conduite “agile” des projets en entreprise, porteuse elle aussi d’incertitude, estime de son côté Odile Chagny. Il y a donc des précautions et des garde-fous majeurs à mettre en place. Il faut notamment se permettre des retours en arrière si les résultats espérés ne sont pas là. »

La chercheuse donne pour exemple vertueux, et fort rare pour le moment, l’accord mit en place chez l’assureur Axa fin 2024, qui prévoit bien l’association à chaque étape des élue·es du personnel.

Les syndicats espèrent aussi pouvoir s’appuyer sur une récente décision de justice : le 14 février, le tribunal de Nanterre a donné raison aux élu·es d’une entreprise qui demandaient en référé (la procédure d’urgence) la suspension du déploiement en phase « pilote » de plusieurs outils d’IA, pour lequel ils n’avaient pas été consultés.

« Comme tout objet sociotechnique, l’introduction de l’IA dans les entreprises a des effets sociaux. Et on retrouve, de manière exacerbée, toutes les questions qui touchent à la transformation technologique du travail, analyse Matthieu Trubert., mais aussi l’éternelle question : à quel besoin l’IA va-t-elle servir à répondre ? S’agit-il d’obtenir des gains de productivité, qui sont encore incertains ? Ou bien d’améliorer les conditions de travail ? »





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *