« L’IA n’est pas infaillible : restons vigilants » — Emmanuelle Darles alerte sur les libertés, l’école et notre souveraineté


Docteure en informatique et enseignante-chercheuse, Emmanuelle Darles publie « IA : Illusions d’avenir — Les dangers de l’intelligence artificielle » (Éditions Résurgence) et signe un manifeste pour un débat public « de vigilance active ». Invitée dans un debriefing à la faveur de la réactivation de la chaîne YouTube de France-Soir, précédemment bannie, elle replace l’IA au cœur d’enjeux sociétaux majeurs : libertés publiques, éducation, santé, justice et emploi.

« Le mot “intelligence artificielle” est un oxymore total », rappelle-t-elle. L’IA moderne, dopée par les masses de données et la puissance de calcul des GPU, « reste un calcul de probabilités ». Or, prévient-elle, « on prend trop souvent pour argent comptant un 0,51 comme s’il valait 100 % ». Cette bascule du probable au certain pose un « problème éthique », surtout quand des décisions impactent des vies.

Vidéo sur la chaine dédiée de France-Soir

L’ouvrage ne se veut pas technophobe. Darles souligne des usages utiles — imagerie médicale, automatisation industrielle, assistance — mais interpelle : « À qui revient la décision finale, à la machine ou à l’humain ? » Et, plus largement, que sommes-nous prêts à déléguer ? « La question n’est pas de tout arrêter, mais de mettre des garde-fous là où c’est utile. »

Sur la censure et la modération algorithmique, elle documente un « effet d’invisibilisation » : « Ces plateformes peuvent entraîner une baisse de visibilité de plus de 95 % sur un contenu jugé indésirable. » Durant la période Covid, rappelle-t-elle, « un million de vidéos ont été supprimées de YouTube » tandis que Twitter et Facebook ont banni ou retiré des millions de comptes et de contenus. Au-delà des plateformes, elle alerte sur des « mesures coercitives » et appelle à un contrôle démocratique des cadres comme le DSA et l’AI Act.

oa

Le cœur du propos est aussi éducatif. Face aux outils génératifs, « on n’arrive plus à évaluer nos étudiants ». Sa réponse : revenir aux fondamentaux, l’oral, le présentiel, l’explicitation des choix de programmation. Car « chaque tâche confiée à une IA, c’est potentiellement une perte de compétence » et un affaiblissement de la pensée critique. L’enjeu touche à l’autonomie et à la souveraineté : « Avant le droit à l’autonomie, il y a la souveraineté — individuelle et des peuples — vis-à-vis des lobbies. »

Côté culture, elle anticipe deux labels : « made by AI » et « made by human » (« fait par l’humain »). « La créativité naît aussi de l’imperfection, des émotions. Une machine peut mimer, pas ressentir : c’est une illusion. »

Son manifeste, téléchargeable sur illusionavenir.fr, invite citoyens et élus à « réouvrir le débat public », affirmer que « l’humain ne peut être remplacé par une machine » et définir collectivement ce que la société accepte — ou non — de déléguer à l’IA. « Résistons, restons vigilants. »

https://www.youtube.com/watch?v=RetiWBuTf8Q





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *