Certains crient à la « fin de la civilisation » lorsqu’il s’agit de parler d’IA comme ChatGPT et Midjourney. Il est important de garder de la nuance, et se rappeler que des chercheurs et chercheuses travaillent déjà sur les limites de l’intelligence artificielle depuis des années.

Cet article est extrait de la newsletter #Règle30 de Numerama, diffusée chaque mercredi gratuitement dans vos boites mail.

Être journaliste spécialisée dans les nouvelles technologies, c’est être victime de la mode. Mon secteur est dominé par des entreprises qui ont un intérêt marketing à innover (ou en tout cas, à dire qu’elles innovent). En dix ans de carrière, j’ai donc écrit sur les chatbots, les lunettes connectées, la réalité augmentée, la réalité virtuelle, l’informatique quantique, la deep tech, les crypto-monnaies, les NFT, les métavers, l’intelligence artificielle, etc. Cela ne signifie pas que ces sujets sont inintéressants. Mais il faut garder en tête que cet agenda médiatique n’est pas neutre, qu’il profite à des acteurs économiques et politiques, et que certaines thématiques tombent en désuétude aussi rapidement qu’elles ont submergé les start-up et les médias.

La newsletter #Règle30 est envoyée tous les mercredis à 11h. 

Pour s’inscrire gratuitement pour la recevoir, c’est par ici.

Ça ne vous aura pas échappé, le sujet du moment, c’est l’intelligence artificielle (note : c’était aussi le cas en 2016). Plus particulièrement, les IA génératives, comme ChatGPT ou Midjourney. Leurs progrès ont alarmé un groupe de plusieurs milliers de personnalités des nouvelles technologies, qui ont co-signé la semaine dernière une lettre ouverte réclamant une « pause » d’au moins six mois, le temps de mettre en place des garde-fous législatifs et techniques. Le texte a été largement repris dans les médias. Il a aussi vite été critiqué pour son discours apocalyptique (je cite : « devrait-on risquer de perdre le contrôle de notre civilisation ? »).

On a remarqué que l’organisation derrière cette initiative, le Future of Life Institute, était en grande partie financée par Elon Musk, qui a lui-même des ambitions dans le secteur de l’intelligence artificielle (il a d’ailleurs cofondé OpenAI, à l’origine de ChatGPT, avant de quitter le navire en 2018). Elle semble proche du mouvement long-termiste, un courant de pensée populaire dans la Silicon Valley, qui prédit un futur plein de menaces qui ne seront surmontées qu’en investissant massivement dans des solutions technologiques radicales.

« Il est dangereux de nous distraire avec des fantasmes d’un futur prospère ou catastrophique à cause de l’IA »

Comme tout objet technologique, l’IA mérite d’être questionnée et critiquée. Toutefois, de la même manière que l’on doit se méfier des optimistes qui promettent une utopie entièrement automatisée, on peut aussi s’interroger sur les intentions des personnes qui nous affirment que l’apocalypse est pour demain. À la suite de la publication de la fameuse lettre ouverte, j’ai trouvé un autre texte intéressant. Il est cosigné par Timnit Gebru, Emily M. Bender, Angelina McMillan-Major et Margaret Mitchell, des chercheuses spécialisées dans l’éthique en intelligence artificielle. Elles sont notamment connues pour avoir écrit un article scientifique en 2021 sur les limites des grands modèles de langage (comme celui de ChatGPT) qui aurait provoqué le licenciement de deux d’entre elles, alors employées de Google. Ces quatre femmes ont répondu à la lettre ouverte de Future of Life, car leurs travaux y sont directement cités. Pourtant, elles sont très critiques de son contenu.

ChatGPT peut-il vraiment devenir écrivain ?  // Source : Claire Braikeh pour Numerama
ChatGPT peut-il vraiment devenir écrivain ? // Source : Claire Braikeh pour Numerama

« Il est dangereux de nous distraire avec des fantasmes d’un futur prospère ou catastrophique à cause de l’IA. Ce genre de vocabulaire nous fait croire que ces logiciels sont capables de plus de choses qu’en réalité, et qu’ils seraient des êtres capables de sentiments et d’intelligence », affirment-elles. « Non seulement cela nous pousse à abandonner tout esprit critique vis-à-vis de systèmes comme ChatGPT, mais cela permet aussi de détourner l’attention sur qui est vraiment responsable de cette situation. Le problème ce ne sont pas les objets technologiques, c’est qui les construit, et comment.»

L’intelligence artificielle n’a pas besoin d’un futur dystopique pour poser des problèmes déjà très concrets et actuels. Depuis des années, chercheurs, chercheuses, militants, militantes et autres expertes alertent sur la précarisation du travail salarié au profit de l’automatisationl’exploitation des travailleurs et des travailleuses du clic, la désinformation qui vise d’abord les personnes minorisées, les algorithmes qui reproduisent et renforcent les inégalités, le besoin de transparence face à des outils qui remplacent petit à petit des services publics, pourtant aux mains de sociétés privées.

Contrairement à d’autres sujets à la mode, ces enjeux ont tardé à être médiatisés. Parce qu’ils sont moins faciles à comprendre qu’une référence flippante de science-fiction. Parce que c’est plus viral de tweeter sur la fin du monde. Parce que ces menaces touchent en premier des personnes dont les voix sont systématiquement ignorées. Parce que, surtout, les entrepreneurs des nouvelles technologies (j’emploie volontairement le masculin) profitent au final de ce système, et qu’ils n’ont pas intérêt à le démanteler. « Plutôt que de nous adapter à une société dominée par les machines, on devrait construire des machines qui fonctionnent pour tout le monde », concluent les chercheuses. « La course actuelle à l’IA n’est pas une fatalité, où notre seul choix serait de courir plus ou moins vite. C’est une somme de décisions où l’on peut choisir quel est notre véritable but.» Il n’est pas urgent de craindre l’apocalypse. On peut d’abord se préoccuper de notre réalité.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !