À l’origine, OpenAI avait embrassé le mouvement de l’open source pour ses travaux sur l’intelligence artificielle. Mais ça, c’était avant.

L’intelligence artificielle est-elle soluble dans l’open source ? Pas aux yeux de la société américaine OpenAI, à l’origine de l’agent conversationnel (chatbot) ChatGPT et des modèles de langage GPT-3 et GPT-4. Plus exactement, ce n’est plus le cas aujourd’hui. À ses débuts, la société avait embrassé l’idée d’une recherche ouverte. Huit ans plus tard, elle juge maintenant avoir fait une erreur.

C’est l’aveu fait à The Verge d’Ilya Sutskever, l’un des cofondateurs d’OpenAI et le scientifique en chef du projet. « Nous nous sommes trompés. Nous nous sommes carrément trompés », a-t-il lâché. Cela fait d’ailleurs plusieurs années qu’OpenAI a freiné sur l’open source. En 2019, l’entreprise a aussi opéré un pivot plus général dans son organisation interne.

« Nous nous sommes trompés. Nous nous sommes carrément trompés »

Ilya Sutskever

L’open source en IA n’est pas raisonnable pour OpenAI

Pourquoi cette trahison des engagements initiaux ? Pour Ilya Sutskever, c’est une question de responsabilité et d’éthique : il est déraisonnable de laisser en libre accès des outils extrêmement performants dans les mains dont on ne sait qui. Cela pourrait même desservir l’humanité dans son ensemble — d’autant que les IA actuelles sont déjà en mesure de bousculer certaines professions.

« Si vous pensez, comme nous, qu’à un moment donné, l’IA — l’IA générale — sera extrêmement, incroyablement puissante, alors il n’est tout simplement pas logique d’ouvrir le code source. C’est une mauvaise idée… Je m’attends à ce que, dans quelques années, il devienne évident pour tout le monde qu’il n’est pas judicieux de mettre l’IA en libre accès », a-t-il argué.

Une IA générale, aussi appelée IA forte, est une formule pour décrire une machine capable de reproduire les capacités cognitives humaines de façon générale, sur des problèmes variés qu’on lui soumettrait. Elle se distingue des IA faibles, qui sont incapables d’aller au-delà de la spécialité pour laquelle elles ont été conçues. Les IA générales n’existent pas encore.

Meta a développé son propre modèle d'intelligence artificielle // Source : Canva
L’intelligence artificielle générale, ou forte, serait capable de reproduire des capacités cognitives humaines. // Source : Canva

Lors de sa naissance en 2015, OpenAI affichait un intérêt marqué pour l’ouverture. « Les chercheurs seront fortement encouragés à publier leurs travaux, que ce soit sous forme d’articles, de billets de blog ou de code, et nos brevets (s’il y en a) seront partagés avec le monde entier », était-il proclamé. Elle avait opté pour une structure de société de recherche à but non lucratif.

Quatre ans plus tard, OpenAI prenait un virage différent. Elle a ouvert une filiale à but lucratif en 2019, pour soutenir le financement coûteux de la recherche en IA à long terme. Elle s’est également rapprochée de Microsoft, une entreprise privée, qui a investi la même année pas moins d’un milliard de dollars. Par la suite, leurs liens se sont encore resserrés (dix milliards en 2023).

2020 a marqué un tournant plus significatif encore, lorsque Microsoft a signé avec OpenAI « pour la licence exclusive du modèle de langage GPT-3 ». GPT-3 est un modèle de langage (c’est-à-dire un modèle statistique de distribution des mots et de structuration des phrases) qui précède GPT-3.5, une version affinée. ChatGPT utilise GPT-3.5.

Source : Numerama
GPT n’est pas encore capable d’imiter les capacités d’un cerveau humain, mais l’outil d’OpenAI s’améliore. // Source : Numerama

Un exemple de cette prise de distance avec le libre accès est le choix d’OpenAI de publier une API — en clair, une interface de programmation d’application pour se connecter à son infrastructure. Cet abandon de la mouvance open source a été dénoncé par Elon Musk, un autre pionnier de la société. Le nom d’OpenAI devait à ce titre refléter cet engagement pour l’ouverture.

Lorsque OpenAI a explicité le choix d’une API, trois arguments avaient été mis en avant :

  • la commercialisation de l’outil permet à la société de financer ses activités dans la recherche, la sécurité et les orientations dans l’IA ;
  • les modèles sous-jacents à l’API « sont très volumineux, leur développement et leur déploiement requièrent une grande expertise et leur exploitation est très coûteuse ». Seules les grandes entreprises sont capables de suivre. L’API offre au contraire une option pour les particuliers, les startups et les PME ;
  • le modèle de l’API donne à OpenAI la maîtrise de ce qui se passe avec son modèle et de corriger des abus et des dérives qui apparaîtraient au fur et à mesure de l’utilisation.

« Comme il est difficile de prévoir les cas d’utilisation en aval de nos modèles, développait l’entreprise dans son billet d’annonce, il semble intrinsèquement plus sûr de les diffuser via une API et d’en élargir l’accès au fil du temps, plutôt que de diffuser un modèle open source dont l’accès ne peut être modifié s’il s’avère qu’il a des applications nuisibles. »

Des raisons plus prosaïques contre l’open source

Le flou qu’entretient OpenAI autour de ses technologies se reflète avec GPT-4, ce que dénoncent des spécialistes en IA. Certes, l’entreprise a partagé une publication générale ainsi qu’un papier plus technique et de la documentation. Trop peu pour savoir comment fonctionne vraiment ce modèle, néanmoins. Les mêmes critiques ciblaient les systèmes précédents comme GPT-3.5.

D’autres raisons plus prosaïques peuvent néanmoins exister, au-delà des craintes autour d’une IA forte, dont l’émergence fait l’objet de débats parfois intenses chez la communauté scientifique. Il peut s’agir d’une stratégie pour éviter de donner à des concurrents des billes pour s’améliorer. OpenAI ne voudrait pas qu’un rival copie ses procédés. La bataille promet d’être dantesque.

Microsoft, qui investit énormément d’argent dans OpenAI, se retrouve dans une course à l’IA face à d’autres poids lourds de la tech, comme Google et Facebook, et peut-être demain Apple et Amazon. Cette compétition se reflète aussi dans des décisions préoccupantes, comme l’affaiblissement des équipes chargées, chez Microsoft, des questions éthiques.

Le rapport technique, d’ailleurs, le dit noir sur blanc : au regard des enjeux et de l concurrence, le rapport assume ne rien dire sur l’architecture (y compris la taille du modèle), le matériel, le calcul d’entraînement, la construction de l’ensemble de données, la méthode d’entraînement ou d’autres éléments similaires.

Autre raison qui peut s’ajouter aux deux autres : la responsabilité juridique de la société pourrait être engagée selon la nature des données qui ont servi à entraîner ses outils. Dans le cas des IA capables de générer des images, l’usage de photos et de dessins protégés par le droit d’auteur est de nature à ouvrir des procès. Idem en cas d’utilisation de certains textes.


Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !