Sam Altman, le patron d’OpenAI, a déclaré que son entreprise ne travaillait pas actuellement sur GPT-5. Ce modèle de langage, aujourd’hui hypothétique, succéderait à GPT-4 pour utiliser ChatGPT.

Verra-t-on un jour GPT-5 ? Peut-être, mais en tout cas pas dans l’immédiat. Invité à s’exprimer devant des élèves du Massachusetts Institute of Technology (MIT), Sam Altman a fait savoir que la prochaine génération du modèle de langage qui fait tourner ChatGPT n’est pas d’actualité. Pour l’heure, son entreprise — OpenAI — est focalisée sur GPT-4, sorti à la mi-mars.

La séquence a été capturée sur Twitter par Amy Robinson Sterling, une spécialiste en neuroscience :

Le fondateur et directeur d’OpenAI était invité à réagir à la lettre ouverte signée par plusieurs milliers d’individus, dont des personnalités du secteur de l’intelligence artificielle. Dans celle-ci, les signataires demandent une pause d’au moins six mois dans le développement des systèmes d’IA génératives, comme ChatGPT, qui produit du texte à la volée, ou Midjourney, du côté des images.

En somme, le moratoire plaide pour ne rien développer de plus puissant que GPT-4, qui sert de fait de mètre-étalon. Ce modèle de langage, par sa notoriété et son degré d’adoption, constitue le point de référence chez les IA génératives, en tout cas celles créant du texte. Et si GPT-5 est évoqué de manière indirecte, l’appel s’adresse en réalité à l’ensemble du secteur.

OpenAI réagit à la lettre ouverte appelant à une pause de six mois dans l’IA

Diplomate, Sam Altman a déclaré à l’auditoire qu’il approuve certaines portions de cette lettre ouverte — tout en rappelant au passage qu’OpenAI a observé une pause de six mois après l’entraînement de GPT-4. Un délai au cours duquel l’entreprise dit avoir cherché à rendre l’outil plus sûr, pour limiter des comportements inadéquats — bien qu’en pratique, le système a encore des faiblesses.

Sam Altman s’est aussi déclaré en accord avec l’idée de rehausser les exigences en matière de sûreté en fonction des progrès de ces outils. Que ce soit en interne, avec le travail des équipes pour régler le fonctionnement du modèle, ou en faisant appel à des compétences extérieures, à travers des audits, des programmes de chasse aux bugs ou des tests d’intrusion.

Le chef d’OpenAI dit néanmoins ne pas épouser toute la lettre ouverte. À ses yeux, l’appel manque plusieurs nuances techniques sur les endroits, en matière d’IA, où il faudrait effectivement faire une pause. Ce n’est pas une position isolée. L’appel passé fin mars est loin d’être partagé par tous. D’autres personnalités de la tech et de l’IA s’y opposent et jugent un moratoire inapplicable.

chatgpt
GPT-4 est actuellement le modèle de langage le plus avancé d’OpenAI. Et il charrie avec lui d’importantes polémiques. // Source : Numerama

La prudence de Sam Altman à l’égard de l’IA n’est pas nouvelle, bien qu’elle puisse surprendre compte tenu de sa place dans le secteur de l’IA. L’intéressé exprime des craintes régulières à l’égard la technologie que son entreprise met au point, mais aussi la concurrence, non pas à cause d’une hypothétique super-IA, mais pour les effets de l’IA sur la désinformation et l’économie.

Cette inquiétude peut expliquer pourquoi OpenAI n’a pas, à en croire Sam Altman, lancé les travaux sur GPT-5. Il reste à voir si cette position sera capable de tenir dans le temps et si les promesses de prudence formulées lors de cet échange au MIT perdureront — comme la nécessité d’évaluer l’impact de son déploiement.

Pas de GPT-5 aujourd’hui. Mais demain ?

OpenAI est très lié aujourd’hui à Microsoft, à travers des investissements qui se chiffrent en milliards de dollars. Or, dans la guerre de l’IA générative que se livrent les géants de la tech, Microsoft dispose aujourd’hui d’une avance grâce à OpenAI et ses modèles de langage. Une position avantageuse que la compagnie n’a aucunement l’intention de perdre.

Or, plusieurs décisions récentes interrogent : la fermeture des modèles de langage chez OpenAI, très loin de la promesse initiale de l’open source. Officiellement, c’est pour éviter de laisser des modèles de langage trop performants dans la nature. Mais, officieusement, c’est pour éviter de donner des billes aux concurrents. Toujours est-il que cela prive le monde universitaire de se pencher dessus.

Autre orientation qui a fait couler beaucoup d’encre : l’affaiblissement des équipes chargées des questions éthiques chez Microsoft. Cela ne signifie pas qu’il n’y a plus aucun garde-fou — l’entreprise conserve un bureau de l’IA responsable. Mais cela envoie un signal négatif.

Des robots qui se font un check // Source : Midjourney avec Numerama
La compétition dans l’IA générative n’est pas de nature à inciter à ralentir le rythme. // Source : Midjourney avec Numerama

C’est aussi révélateur des enjeux et cette décision peut se lire l’empressement du groupe à prendre des positions dans l’IA rapidement. L’intégration de ChatGPT dans Bing l’illustre, ainsi que l’arrivée de divers outils au sein de son écosystème logiciel. Pourtant, on sait que l’outil est encore faillible. Cela n’a pas empêché d’interfacer par la suite GPT-4 dans Bing, quitte à corriger après.

L’information selon laquelle GPT-5 n’est pas au programme d’OpenAI aujourd’hui s’inscrit au moment où les autorités de régulation et les législateurs dans le monde entier se penchent de plus en plus sur ces IA génératives. On sait qu’en Europe, un règlement est en cours. En Italie, ChatGPT est inaccessible (sauf en cas de VPN). En France, la Cnil a reçu des saisines et planche sur le sujet.

Une pression accrue qui semble indirectement produire des effets sur OpenAI. En tout cas, l’entreprise a dernièrement pris la parole à deux reprises sur son blog pour parler de sécurité. La première fois, c’est pour exposer son approche en matière de sûreté. La seconde, pour annoncer un programme de chasse aux bugs. Deux prises de parole arrivées après GPT-4 et les polémiques afférentes.


Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.