Un moratoire est réclamé sur les systèmes d’intelligence artificielle très puissants. Les travaux actuels devraient être mis en pause, surtout ceux qui dépasseraient ChatGPT et GPT-4. Cette interruption servirait à réfléchir à la direction à prendre sur l’IA.

« Une intelligence artificielle avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec l’attention et les ressources nécessaires ». L’avertissement est clair et figure tout en haut d’une lettre ouverte priant tout le secteur de l’IA à observer immédiatement une pause dans leurs expérimentations.

Publié sur le site Future of Life, l’appel accueille 1 125 signatures en date du 29 mars 2023. On y trouve des personnalités très connues de la tech et du numérique, comme Elon Musk (le patron de SpaceX, Tesla et Twitter), Steve Wozniak (le cofondateur d’Apple), mais également les créateurs d’entreprises à succès, comme Skype ou Pinterest.

Surtout, des représentants du secteur de l’intelligence artificielle figurent parmi les signataires, comme John Hopfield, à qui l’on doit le réseau de neurones de Hopfield, et Stuart Russell, professeur d’informatique à la fac de Berkeley et autre spécialiste reconnu de l’IA. D’autres chercheurs, universitaires et industriels dont l’IA n’est pas leur domaine apparaissent également.

La pétition est toutefois émaillée d’une polémique sur la vérification de toutes les signatures — la présence de Xi Jinping, le président chinois, a été relevée, avec des titres farfelus. Selon nos constatations, son nom a été depuis retiré. L’inscription ne semble nécessiter qu’un remplissage de formulaire et une vérification de l’adresse e-mail.

La lettre ouverte est également contestée sur le fond, à l’image de Yann LeCun, l’un des pères de la méthode de l’apprentissage profond (deep learning), un domaine clé de la recherche en IA, et également patron de l’intelligence artificielle chez Meta. Il dit avoir refusé de signer l’appel car il désapprouve ses prémisses.

Une pause de six mois dans les travaux de l’IA

Dans cet appel, tous vont dans le même sens : il faut que tous les laboratoires d’IA dans le monde observent une pause dans leurs travaux, et ce pendant au moins six mois. « Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements doivent intervenir et instaurer un moratoire », ajoutent-ils.

Les signataires ont un type d’IA en particulier en tête comme référence : le modèle de langage GPT-4, qui a été dévoilé par l’entreprise américaine OpenAI à la mi-mars. Ce système succède à GPT-3.5 pour le fonctionnement de ChatGPT, l’agent conversationnel (ou chatbot en anglais) rendu public à la fin du mois de novembre 2022.

Ce ne sont pas tous les systèmes d’intelligence artificielle qui posent un problème, à en croire la lettre ouverte. Au cœur de la préoccupation des signataires figure le développement des systèmes qui seront « plus puissants que GPT-4 ». OpenAI, s’il travaille sur la prochaine génération de son modèle de langage, avec GPT-5, est de fait visé par l’appel.

GPT-4 apparaît avoir été pris comme mètre-étalon surtout par commodité. Il est au cœur de l’actualité et l’utilisation intensive de ChatGPT depuis maintenant cinq mois a permis d’avoir une bonne idée de ses capacités en matière de génération de contenus. Des performances quelquefois spectaculaires, parfois accompagnées de ratés flagrants.

La pause d’au moins six mois que défendent les signataires du texte doit offrir une fenêtre de concertation et de coordination pour un meilleur encadrement, mais aussi une réflexion sur l’orientation et la priorité à donner à ces travaux. La lettre ouverte renvoie d’ailleurs aux principes d’Asilomar, validés en 2017, qui proposent un guide de référence pour un développement éthique de l’IA.

ChatGPT est interdit aux agents de la mairie de Montpellier // Source : Numerama
L’émergence récente de ChatGPT dans la sphère publique et la sortie de GPT-4 sont prises comme référence dans la lettre ouverte. // Source : Numerama

« Hélas, ce niveau de planification et de gestion n’existe pas, même si ces derniers mois, les laboratoires d’IA se sont lancés dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne — pas même leurs créateurs — ne peut comprendre, prédire ou contrôler de manière fiable », s’alarment les pétitionnaires.

En somme, la recherche et le développement dans ce domaine devraient pivoter sur la consolidation des bases plutôt que de grimper frénétiquement vers de nouveaux sommets, au risque d’avoir une tour branlante, qui pourrait finir par s’écrouler. Un recentrage sur une IA « plus exacte, plus sûre, interprétable, transparente, robuste, plus conforme, plus fiable et plus loyale. »

Ce n’est pas la première fois que de telles lettres ouvertes sont publiées ni que des débats ont lieu au sujet de l’éthique dans l’IA. En 2015, le même site Future of Life partageait déjà un autre appel pour alerter sur les dérives de ces systèmes de pointe dont les innovations techniques surviendraient hors de toute considération sur les bénéfices sociétaux.

Huit ans plus tard, les craintes n’ont pas changé. En revanche, l’IA, elle, a changé. Elle s’est améliorée. « Les systèmes d’IA contemporains deviennent aujourd’hui compétitifs pour les tâches générales », soutiennent les signataires. Les modèles actuels bousculent déjà l’emploi, avec un risque de casse sociale colossal.

Idem pour l’information. Ce que dit ChatGPT peut être pris pour argent comptant et l’outil a déjà montré qu’il pouvait générer de la désinformation sans sourciller. Des images inventées peuvent semer le doute sur ce qui est réel. Si des clichés inventés sont aujourd’hui amusants, d’autres demain pourraient ne plus l’être. Des visuels sont déjà bluffants de réalisme, au point que l’on peut y croire.

L’opacité dans l’IA, autre reproche

Les inquiétudes exprimées par ces 1 125 signataires arrivent toutefois à un moment où le droit pourrait justement s’en mêler. Au niveau de l’Union européenne, un projet de réglementation de l’IA est examiné. Le classement de l’IA par degré de risque est l’un des aspects clés du texte. Des discussions ont notamment eu lieu pour savoir à quel niveau placer un chatbot comme ChatGPT.

Autre critique en filigrane de la lettre ouverte : les travaux autour de l’IA sont captés par des grandes entreprises, qui sont par ailleurs de moins en moins disposées à les partager et à montrer les coulisses de leur système. La faute à la guerre de l’IA de plus en plus forte à laquelle se livrent les poids lourds de la tech. La déclaration d’OpenAI sur l’open source est révélatrice.

L’intervention du législateur n’est d’ailleurs pas vue d’un mauvais œil. L’appel juge que « ces décisions ne doivent pas être déléguées à des leaders technologiques non élus » d’une part, et qu’il faut mettre un coup d’arrêt « à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles, dotés de capacités émergentes » d’autre part.

L’influence de la lettre ouverte sur le secteur de l’IA reste à voir. Cet appel contient par ailleurs plusieurs pistes d’action à mettre en œuvre pour redresser la barre. Il ne s’agit pas, insistent les pétitionnaires, d’abandonner toute recherche sur l’IA, mais de disposer au préalable d’un cadre pour être sûr « que ses effets seront positifs et que ses risques seront gérables » avant de passer à GPT-5 et consorts.

Il n’est pas trop tard pour agir, avance la lettre ouverte, et pour créer les conditions d’un « été de l’IA », dans lequel l’humanité récolterait les fruits de ses efforts. « La société a mis en pause d’autres technologies aux effets potentiellement catastrophiques pour elle. Nous pouvons faire de même ici. Profitons d’un long été de l’IA et ne nous précipitons pas sans préparation vers l’automne. »


Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !