Selon Reuters, le licenciement de Sam Altman par OpenAI serait dû au développement d’un nouveau modèle de langage nommé Q*, capable d’une logique proche de celle d’un être humain. Une théorie poussée par Elon Musk et son entourage, qui tentent de nuire à OpenAI… Mais « Q Star » ne serait pas la super-IA démoniaque dont certains parlent.

OpenAI a-t-il fait une découverte révolutionnaire sur le point de changer l’humanité à tout jamais ? Selon des informations recueillies par Reuters, qui n’a étrangement pas pu les vérifier, plusieurs chercheurs auraient alerté le conseil d’administration d’OpenAI du développement d’un projet dangereux, supervisé par Sam Altman. C’est ce qui aurait causé son renvoi ultra-médiatisé le 17 novembre, avant qu’il ne revienne le 21 novembre. Une théorie partagée massivement par Elon Musk et son entourage, qui tentent depuis plusieurs jours de diffuser des rumeurs sur Sam Altman.

Concrètement, ces chercheurs reprocheraient à Sam Altman d’avoir autorisé le développement d’une IA capable de « raisonner », pour notamment résoudre des problèmes mathématiques (alors que les IA génératives sont seulement fortes avec les mots aujourd’hui). Ce projet, qu’OpenAI appelle Q* (pour Q Star), existe bel et bien. L’entreprise l’a confirmé, même si rien ne dit qu’il a provoqué le licenciement de Sam Altman, surtout quand on sait que le conseil d’administration n’a toujours pas su expliquer les raisons de son renvoi.

Q* est-t-il dangereux ? Pour Yann LeCun, le Français à la tête de l’IA chez Meta, toutes les informations à son sujet sont « un déluge d’absurdités ». Q* ne serait qu’un projet comme un autre, après des décennies de recherche sur ce sujet.

Le tweet de Yann LeCun.
Le tweet de Yann LeCun. // Source : X

Apprendre à une IA à anticiper ses réponses, c’est juste de l’évolution

Concrètement, Yann LeCun dit :

« Veuillez ignorer le déluge d’absurdités au sujet de Q*.
L’un des principaux défis pour améliorer la fiabilité des modèles de langage est de remplacer la prédiction auto-régressive des jetons par de la planification.

Pratiquement tous les grands laboratoires (FAIR, DeepMind, OpenAI, etc.) travaillent sur ce sujet et certains ont déjà publié des idées et des résultats.

Il est probable que Q* soit la tentative de planification d’OpenAI. Ils ont globalement embauché Noam Brown (de Libratus/poker et de Cicero/Diplomacy) pour travailler sur ce sujet. »

Yann LeCun // Source : YouTube / USI Events
Yann LeCun est un des chercheurs les plus respectés en intelligence artificielle. // Source : YouTube / USI Events

Qu’est-ce que cela signifie ? Aujourd’hui, les modèles de langage comme GPT-4 utilisent une méthode auto-régressive pour générer du texte, en prédisant un token (un mot ou un caractère) un par un, en se basant sur les tokens précédents. Cela limite leurs capacités, puisqu’ils ne peuvent pas résoudre plusieurs tâches simultanément.

Un jour peut-être, avec la planification, un modèle de langage pourrait suivre des objectifs à plus long terme, pour ne pas réagir token par token. Ses réponses deviendraient cohérentes, avec sans doute la possibilité de résoudre des problèmes mathématiques.

Yann LeCun, qui milite depuis 2016 pour des recherches en la matière, indique que les recherches sur la planification ont commencé dans les années 1980 et doute du fait qu’OpenAI a vraiment pris de l’avance sur le sujet. Si Q* est bien le modèle de langage expérimental de l’entreprise de Sam Altman sur la planification, il n’est probablement pas meilleur que celui des autres laboratoires. Et même s’il l’était, cela ne lui permettra pas de penser comme un humain. Il serait juste plus pertinent sur certaines requêtes.

La peur habituelle de l’intelligence artificielle

Pourquoi y a-t-il un aussi gros emballement autour de Q* ? C’est l’effet Terminator. Les gens aiment se faire peur avec l’IA, en oubliant souvent que c’est son rôle de se faire passer pour plus intelligente qu’elle ne l’est vraiment. On se souvient notamment du chercheur de Google convaincu que son IA l’aimait, qui s’est probablement lui-même fait avoir.

Même si Q* aboutit un jour à un ChatGPT amélioré, capable d’aller beaucoup plus loin que la version actuelle, il n’en fera pas une AGI, soit une intelligence artificielle consciente. Yann LeCun fait partie des personnes qui alertent régulièrement sur la folie autour de cette idée, qui lui semble techniquement impossible (d’autant plus qu’il n’existe aucune définition scientifique de l’AGI, ce n’est qu’un fantasme). Pourtant, l’humanité continue de la craindre et de la voir partout.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.