Quand un secteur appelle à s’autoréguler, il est souvent déjà trop tard. Sam Altman, Greg Brockman, Ilya Sutskever, trois cadres d’OpenAI, la société à l’origine de GPT-4 et ChatGPT, appellent à un encadrement strict de l’intelligence artificielle au sein d’une note publiée lundi 22 mai sur le site de la société. Les systèmes d’IA seraient proches d’un tournant et le monde serait confronté à une « superintelligence » d’ici une dizaine d’années.
« La superintelligence sera plus puissante que les autres technologies auxquelles l’humanité a dû faire face dans le passé », assurent les leaders de la start-up cofondée par Elon Musk. Des limites doivent être posées rapidement pour les technologies d’IA actuelle, mais l’intelligence artificielle générale (AGI) nécessite des mesures et une coordination spécifique transnationale.
Un risque similaire au nucléaire
Les trois hommes comparent les risques posés par cette « superintelligence » à ceux de l’énergie nucléaire. Cette forme d’intelligence artificielle serait capable de dépasser le niveau de compétence des experts de « la plupart des domaines » et serait plus productive que « l’une des plus grandes entreprises », assurent-ils. Plus inquiétant encore, les leaders d’OpenAI affirment qu’il existe un risque « existentiel » pour les sociétés humaines.
Pour limiter ces dangers pour l’humanité, les auteurs appellent dont à avir. Ils disent réclamer la création d’une autorité internationale chargée d’auditer les systèmes d’IA à partir d’une certaine puissance ou de vérifier la conformité aux normes sécuritaires. Des suggestions aujourd’hui floues : on ignore, par exemple, qui les édicterait.
« Il serait important qu’une telle agence se concentre sur la réduction des risques existentiels et non sur des questions qui devraient être laissées aux pays individuels, telles que la définition de ce qu’une IA devrait être autorisée à dire », développent les concepteurs de GPT-4, leur modèle de langage le plus récent et le plus performant, qui fait fonctionner ChatGPT.
Une « superintelligence » peut-elle être « sûre » ?
L’arrivée d’une « superintelligence » est inévitable selon les responsables d’OpenAI. Arrêter de développer un tel système serait risqué et très complexe et nécessiterait « un régime de surveillance mondial. » Un point de vue encore largement débattue au sein de la communauté des spécialistes de l’IA. La nouvelle réglementation devrait être régie par les citoyens de tous les pays. Un vaste projet démocratique dans lequel l’utilisateur aurait son mot à dire. Dans ce cadre, la start-up prévoit d’expérimenter le développement d’un tel outil décisionnel.
Les cadres de l’entreprise assurent toutefois qu’une intelligence artificielle générale pourrait conduire à un monde meilleur. « Le monde est confronté à de nombreux problèmes et nous aurons besoin de beaucoup plus d’aide pour les résoudre. La croissance économique et l’amélioration de la qualité de vie seront étonnantes », promettent-ils.
Une stratégie cachée ?
Laisser les acteurs réguler leur propre secteur interroge sur l’effectivité de ladite régulation. Comme le rappelait Gary Marcus, expert de l’intelligence artificielle lors de son audition devant la commission des affaires juridiques du Sénat, plus qu’une question d’éthique, l’appel d’Altman et des cadres d’OpenAI à réguler l’IA au niveau mondial est une véritable stratégie économique.
Car en creux, il y a des enjeux financiers pour l’entreprise. Avec des réglementations fragmentées au niveau national, OpenAI devrait ajuster l’entraînement de tous ses modèles d’IA en fonction des règles de chaque pays, afin d’éviter des sanctions ou une interdiction. Un scénario qui s’est presque joué en Italie, cette fois à cause d en lien avec le RGPD.
Par ailleurs, Sam Altman, dans d’autres propos relayés par le Time le 24 mai, suggère que sa société OpenAI ne pourrait pas forcément se soumettre à toute forme de régulation. Dès lors, il lui faudrait peut-être quitter l’Europe si l’entreprise ne parvenait pas à se conformer aux nouvelles lois sur l’IA actuellement en discussions dans l’UE. Une déclaration à rebours de sa prise de position aux côtés des cadres de la société.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !