L’entreprise américaine OpenAI a dévoilé les raisons techniques qui ont entraîné un déraillement complet de ChatGPT dans la journée du 20 février 2024.

Une intelligence artificielle décrite comme « folle », subissant une attaque cérébrale ou montrant des signes de schizophrénie. Si vous aviez visité le forum de Reddit consacré à ChatGPT le 20 février 2024, vous n’auriez pas pu rater les nombreux fils de discussion s’interrogeant sur la santé mentale du chatbot d’OpenAI.

En effet, des dizaines d’internautes ont témoigné du comportement pour le moins étrange de l’agent conversationnel. Pendant quelques heures, l’IA a raconté n’importe quoi. Elle n’a pas juste formulé de fausses réponses : elle a construit des phrases sans queue ni tête. Elle a aussi mélangé des langues, répété les mêmes mots ou publié plein d’émojis.

Une optimisation qui tourne mal

Dans les heures qui ont suivi, OpenAI, l’entreprise derrière ChatGPT, n’avait pas encore pris la parole pour expliquer les raisons de cette sortie de route. C’est désormais chose faite. Une explication est apparue sur le tableau de bord de l’entreprise, qui permet d’indiquer au public l’état de fonctionnement de ses différents outils.

On apprend que la défaillance de ChatGPT vient d’une « optimisation de l’expérience utilisateur » qui a mal tourné. Cette amélioration a perturbé la façon dont le modèle d’OpenAI traite le langage. Cette modification a eu lieu le 20 février, le jour où les internautes ont remonté en masse les dérives de l’agent conversationnel.

La France est l'un des pays les plus concernés au monde par les fuites de données // Source : Numerama avec Midjourney
ChatGPT a perdu les pédales pendant quelques heures. // Source : Numerama avec Midjourney

« Les grands modèles de langage (LLM) génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités. Leur ‘langage’ consiste en des nombres qui correspondent à des jetons », explique l’entreprise. « Dans ce cas, le problème se situe à l’étape où le modèle choisit ces nombres. »

« Comme s’il s’agissait d’une erreur de traduction, le modèle a choisi des nombres légèrement erronés, ce qui a produit des séquences de mots qui n’avaient aucun sens », ajoute OpenAI. « Plus techniquement, les noyaux d’inférence produisaient des résultats incorrects lorsqu’ils étaient utilisés dans certaines configurations de GPU. »

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !