L’entreprise américaine OpenAI a dévoilé les raisons techniques qui ont entraîné un déraillement complet de ChatGPT dans la journée du 20 février 2024.

Une intelligence artificielle décrite comme « folle », subissant une attaque cérébrale ou montrant des signes de schizophrénie. Si vous aviez visité le forum de Reddit consacré à ChatGPT le 20 février 2024, vous n’auriez pas pu rater les nombreux fils de discussion s’interrogeant sur la santé mentale du chatbot d’OpenAI.

En effet, des dizaines d’internautes ont témoigné du comportement pour le moins étrange de l’agent conversationnel. Pendant quelques heures, l’IA a raconté n’importe quoi. Elle n’a pas juste formulé de fausses réponses : elle a construit des phrases sans queue ni tête. Elle a aussi mélangé des langues, répété les mêmes mots ou publié plein d’émojis.

Une optimisation qui tourne mal

Dans les heures qui ont suivi, OpenAI, l’entreprise derrière ChatGPT, n’avait pas encore pris la parole pour expliquer les raisons de cette sortie de route. C’est désormais chose faite. Une explication est apparue sur le tableau de bord de l’entreprise, qui permet d’indiquer au public l’état de fonctionnement de ses différents outils.

On apprend que la défaillance de ChatGPT vient d’une « optimisation de l’expérience utilisateur » qui a mal tourné. Cette amélioration a perturbé la façon dont le modèle d’OpenAI traite le langage. Cette modification a eu lieu le 20 février, le jour où les internautes ont remonté en masse les dérives de l’agent conversationnel.

La France est l'un des pays les plus concernés au monde par les fuites de données // Source : Numerama avec Midjourney
ChatGPT a perdu les pédales pendant quelques heures. // Source : Numerama avec Midjourney

« Les grands modèles de langage (LLM) génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités. Leur ‘langage’ consiste en des nombres qui correspondent à des jetons », explique l’entreprise. « Dans ce cas, le problème se situe à l’étape où le modèle choisit ces nombres. »

« Comme s’il s’agissait d’une erreur de traduction, le modèle a choisi des nombres légèrement erronés, ce qui a produit des séquences de mots qui n’avaient aucun sens », ajoute OpenAI. « Plus techniquement, les noyaux d’inférence produisaient des résultats incorrects lorsqu’ils étaient utilisés dans certaines configurations de GPU. »

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+

Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.