Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

OpenAI appelle à une réglementation mondiale pour éviter que l'IA ne détruise l'humanité

Les cadres d'OpenAI appellent de leurs vœux à une régulation mondiale de l'intelligence artificielle. Dans les dix prochaines années, il est probable que l'humanité soit confrontée aux nombreux risques d'une IA dotée d'une « superintelligence .»

Quand un secteur appelle à s'autoréguler, il est souvent déjà trop tard. Sam Altman, Greg Brockman, Ilya Sutskever, trois cadres d'OpenAI, la société à l'origine de GPT-4 et ChatGPT, appellent à un encadrement strict de l'intelligence artificielle au sein d'une note publiée lundi 22 mai sur le site de la société. Les systèmes d'IA seraient proches d'un tournant et le monde serait confronté à une « superintelligence » d'ici une dizaine d'années. 

« La superintelligence sera plus puissante que les autres technologies auxquelles l'humanité a dû faire face dans le passé », assurent les leaders de la start-up cofondée par Elon MuskDes limites doivent être posées rapidement pour les technologies d'IA actuelle, mais l'intelligence artificielle générale (AGI) nécessite des mesures et une coordination spécifique transnationale. 

Un risque similaire au nucléaire

Les trois hommes comparent les risques posés par cette « superintelligence » à ceux de l'énergie nucléaire. Cette forme d'intelligence artificielle serait capable de dépasser le niveau de compétence des experts de « la plupart des domaines » et serait plus productive que « l'une des plus grandes entreprises », assurent-ils. Plus inquiétant encore, les leaders d'OpenAI affirment qu'il existe un risque « existentiel » pour les sociétés humaines.

Sam Altman s'inquiète des conséquences néfastes de l'AGI. // Source : Leoboudv / Wikimedia

Pour limiter ces dangers pour l'humanité, les auteurs appellent dont à avir. Ils disent réclamer la création d'une autorité internationale chargée d'auditer les systèmes d'IA à partir d'une certaine puissance ou de vérifier la conformité aux normes sécuritaires. Des suggestions aujourd'hui floues : on ignore, par exemple, qui les édicterait.

« Il serait important qu'une telle agence se concentre sur la réduction des risques existentiels et non sur des questions qui devraient être laissées aux pays individuels, telles que la définition de ce qu'une IA devrait être autorisée à dire », développent les concepteurs de GPT-4, leur modèle de langage le plus récent et le plus performant, qui fait fonctionner ChatGPT.

Une « superintelligence » peut-elle être « sûre » ?

L'arrivée d'une « superintelligence » est inévitable selon les responsables d'OpenAI. Arrêter de développer un tel système serait risqué et très complexe et nécessiterait « un régime de surveillance mondial. » Un point de vue encore largement débattue au sein de la communauté des spécialistes de l'IA. La nouvelle réglementation devrait être régie par les citoyens de tous les pays. Un vaste projet démocratique dans lequel l'utilisateur aurait son mot à dire. Dans ce cadre, la start-up prévoit d'expérimenter le développement d'un tel outil décisionnel. 

IA intelligence artificielle
Source : Numerama avec Midjourney

Les cadres de l'entreprise assurent toutefois qu'une intelligence artificielle générale pourrait conduire à un monde meilleur. « Le monde est confronté à de nombreux problèmes et nous aurons besoin de beaucoup plus d'aide pour les résoudre. La croissance économique et l'amélioration de la qualité de vie seront étonnantes », promettent-ils. 

Une stratégie cachée ?

Laisser les acteurs réguler leur propre secteur interroge sur l'effectivité de ladite régulation. Comme le rappelait Gary Marcus, expert de l'intelligence artificielle lors de son audition devant la commission des affaires juridiques du Sénat, plus qu'une question d'éthique, l'appel d'Altman et des cadres d'OpenAI à réguler l'IA au niveau mondial est une véritable stratégie économique.

Car en creux, il y a des enjeux financiers pour l'entreprise. Avec des réglementations fragmentées au niveau national, OpenAI devrait ajuster l'entraînement de tous ses modèles d'IA en fonction des règles de chaque pays, afin d'éviter des sanctions ou une interdiction. Un scénario qui s'est presque joué en Italie, cette fois à cause d en lien avec le RGPD.

Par ailleurs, Sam Altman, dans d'autres propos relayés par le Time le 24 mai, suggère que sa société OpenAI ne pourrait pas forcément se soumettre à toute forme de régulation. Dès lors, il lui faudrait peut-être quitter l'Europe si l'entreprise ne parvenait pas à se conformer aux nouvelles lois sur l'IA actuellement en discussions dans l'UE. Une déclaration à rebours de sa prise de position aux côtés des cadres de la société.