Le départ de deux dirigeants d’OpenAI intrigue, et soulève à nouveau des questions sur sa gestion. Quelques mois après le départ et le retour tumultueux de Sam Altman à la tête de l’entreprise, certains y voient même le signe qu’OpenAI ne maîtrise pas sa technologie.

« Après presque une décennie, j’ai pris la décision de quitter OpenAI. » L’annonce le 15 mai 2024 d’Ilya Sutskever, l’un des cofondateurs de l’entreprise et son directeur scientifique, a pris le monde de l’intelligence artificielle de court. Son départ est d’autant plus déconcertant qu’Ilya Sutskever avait participé, il y a quelques mois, à l’un des épisodes les plus chaotiques de l’histoire de l’entreprise : la tentative d’éviction de Sam Altman, son PDG.

Aujourd’hui, il semble indiquer dans son message publié sur X (ex-Twitter) qu’il part en bons termes avec les équipes. « La trajectoire de l’entreprise a été tout simplement miraculeuse, et je suis convaincu qu’OpenAI construira une [intelligence artificielle générale] à la fois sûre et bénéfique […]. Ce fut un honneur et un privilège de travailler ensemble, et tout le monde me manquera beaucoup. »

Néanmoins, son départ soulève de nombreuses questions, d’autant plus qu’il n’est pas le seul à quitter OpenAI : Jan Leike, un des cadres de l’entreprise, a également annoncé avoir démissionné ce 15 mai 2024. Sur les réseaux sociaux, de nombreux observateurs du monde de l’intelligence artificielle se demandent ce que les deux ont vu qui aurait pu les pousser à partir — et font ressurgir d’anciennes théories qui avaient émergé lors du départ de Sam Altman.

De nombreuses rumeurs sur OpenAI

Ilya Sutskever était l’un des piliers et des co-fondateurs d’OpenAI, avec Sam Altman et d’autres dirigeants de l’entreprise. Il occupait la position de directeur scientifique, un rôle critique qui l’avait notamment amené à travailler avec l’équipe « Superalignment » d’OpenAI. Le « Superalignment » est un concept crucial pour la sécurité des intelligences artificielles, qui vise à prévenir les conséquences négatives de la singularité, le moment où une IA aurait des capacités supérieures à celle de l’Homme : il s’agit à la fois du Graal pour les chercheurs en intelligence artificielle, mais aussi d’un moment qui pourrait être une bascule pour le développement de l’humanité.

L’équipe Superalignment d’OpenAI travaillait tout particulièrement à l’élaboration d’outils qui permettrait de maitriser une intelligence artificielle surpuissante, afin de faire en sorte qu’elle continue de répondre aux besoins de l’humanité. Cette équipe était également codirigée par Jan Leike, l’autre employé d’OpenAI qui a annoncé sa démission ce 15 mai, dans un très laconique message sur X.

L’annonce du départ de ces deux employés a tout de suite alerté les observateurs du milieu, mais surtout, fait ressurgir des doutes sur la gestion de l’entreprise. En effet, à la fin de l’année 2023, Ilya Sutskever avait fait partie du groupe ayant organisé le départ de Sam Altman de la tête de l’entreprise. Le 17 novembre 2023, c’était même lui qui avait personnellement informé le PDG qu’il avait été démis de ses fonctions. Ilya Sutskever avait néanmoins rapidement regretté son geste, et avait signé, avec près de 90 % des employés d’OpenAI, une pétition demandant son retour.

Sam Altman interviewé par le WSJ // Source : Screenshot YouTube/Wall Street Journal
Sam Altman interviewé par le WSJ // Source : Screenshot YouTube/Wall Street Journal

Sam Altman avait finalement été réinstauré à la tête d’OpenAI, mais des rumeurs avaient tout de même circulé sur les raisons qui avaient motivé son éviction par le conseil d’administration. Sam Altman avait ainsi été accusé de ne pas faire assez attention aux normes de sécurités déployées, et surtout, d’avoir lancé le développement de Q*, une intelligence artificielle qui aurait été capable de raisonner comme un humain. Les rumeurs sur Q* avaient rapidement été balayées comme des absurdités, mais le départ soudain d’Ilya Sutskever et de Jan Leike a, à nouveau, fait ressurgir des rumeurs.

Sur X, ils sont ainsi nombreux à se demander ce que les deux ingénieurs ont vu qui aurait pu les pousser à partir. « Ça n’est pas bon. Il n’y a même pas un mot pour dire diplomatiquement qu’OpenAI est entre de bonnes mains. Qu’a vu Jan ? », se demande ainsi un internaute sur X, dans une publication accompagnée d’une image de drapeaux rouges.

Pour l’instant, OpenAI a seulement communiqué sur le départ d’Ilya Sutskever. Sam Altman a publié un long message sur X, expliquant que la situation le rendait « très triste ». « Ilya est facilement l’un des plus grands esprits de notre génération, un guide dans notre domaine et un ami très cher », a-t-il également ajouté. OpenAI a précisé dans un communiqué de presse qu’Ilya serait remplacé par Jakub Pachocki, qui occupait jusque-là la position de directeur de la recherche, et avait supervisé le développement de GPT-4 et les recherches sur l’apprentissage des IA. Le départ de Jan Leike n’a pas été publiquement commenté, et on ne sait pas qui le remplacera.

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+

Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !