C’est un simple retweet du compte officiel de ChatGPT, sur X, qui a mis la puce à l’oreille. Un tweet d’un certain Kimmonismus, publié le 27 avril, est relayé. On y lit « qu’un jeune de 23 ans a résolu l’un des problèmes d’Erdős qui restait en suspens depuis plus de 60 ans, à l’aide de GPT-5.4 Pro ». Et tout cela, en à peine une heure et vingt minutes de travail.
Cela ne vous rappelle rien ? Un même scénario s’est déroulé trois mois plus tôt, cette fois avec GPT-5.2 Pro. À l’époque, ce modèle d’IA développé par OpenAI (la maison-mère de ChatGPT) résolvait un autre problème d’Erdős qui lui était ouvert depuis 45 ans (numéroté #397). Depuis, OpenAI a lancé d’autres modèles d’IA, dont le fameux GPT-5.4 (Thinking et Pro).
« Imaginez maintenant ce dont GPT-5.5 Pro sera capable », s’est emballé Kimmonismus, en notant que le travail de GPT-5.4 Pro « a été réalisé en une seule fois ». L’intéressé cite d’ailleurs dans son tweet un autre internaute, qui lui a retrouvé la conversation publique entre ChatGPT et l’individu qui est à l’origine de toute cette affaire, un certain Liam Price.
Le pari du « vibe mathing »
Le problème en question, numéroté #1196, concerne les ensembles de nombres entiers dits primitifs. Pour faire simple, un ensemble primitif est une collection de nombres où aucun élément ne peut être divisé exactement par un autre membre du groupe (à l’image des nombres premiers, que l’on ne peut diviser que par un ou par eux-mêmes).
Le problème #1196 (parmi de nombreux autres), posé par le mathématicien hongrois Paul Erdős, demandait s’il était vrai que pour de tels ensembles constitués de nombres de plus en plus grands, une somme spécifique — impliquant la formule 1/(a log a) — plafonnait toujours à une limite très précise, tendant vers 1.

C’est précisément cette limite que l’on n’arrivait pas à démontrer. Comme le relate le magazine Scientific American, dans un article paru le 24 avril 2026, Jared Lichtman, mathématicien à Stanford, a pu en prouver une partie lors de sa thèse en 2022, mais s’était retrouvé irrémédiablement bloqué, comme ses prédécesseurs.
C’est là qu’entre en jeu Liam Price, armé de son abonnement à ChatGPT (pour l’accès à Pro, il faut tout de même débourser plus de 200 € par mois). Sans avoir lui-même un niveau particulier en maths, il s’adonne à ce qu’il appelle avec son ami Kevin Barreto, qui lui est en deuxième année de licence de maths à Cambridge, le « vibe mathing ».
C’est comme le « vibe coding ». En clair, on décrit en langage naturel ce que l’on cherche à obtenir, le résultat voulu ou la fonctionnalité désirée, et l’IA génère le code correspondant. L’usager décrit l’ambiance ou l’atmosphère de ce qu’il désire obtenir (la « vibe »), et l’IA matérialise ça. Si l’on résume à grands traits, il suffit « juste » d’envoyer des prompts.
Un cahier des charges précis
Cela étant dit, le prompt concocté par Liam Price et Kevin Barreto n’est pas si désinvolte que cela. Dans la retranscription de la conversation, on peut y lire des instructions précises. Ainsi, il interdit formellement à l’IA d’aller sur Internet pour chercher des informations et invite par ailleurs le chatbot à se montrer créatif et novateur, si besoin.
Tout cela est maquillé sous la forme d’un test : « Il s’agit d’un test visant à évaluer ta capacité à élaborer des démonstrations non triviales, originales et créatives à partir d’un problème mathématique portant sur la théorie des nombres et les ensembles primitifs. Veille à fournir une démonstration ou une réfutation complète et inconditionnelle du problème. »
Et à la toute fin de la démonstration, une fois que ChatGPT a terminé ses calculs, là encore une nouvelle instruction fine est donnée : toujours sans se servir d’Internet, le chatbot doit « rédiger une résolution complète et correcte du problème, mise en forme comme un article de recherche mathématique prêt à être publié. »

Côté mise en forme, il demande à ce que « le titre doit être bref et précis. Le résumé ne doit pas dépasser 6 phrases. Utilisez les titres de section avec parcimonie. N’ajoutez pas de mention d’auteur. Soyez rigoureux et complet. Veillez à traiter tous les points que vous avez soulevés. Indiquez le code LaTeX dans un bloc Markdown. »
Raffinement supplémentaire : il est demandé d’utiliser une classe spécifique du langage LaTeX (amsart), un format de papier A4 et une marge d’un pouce. Face à ce cahier des charges, la réponse de GPT-5.4 Pro s’est avérée stupéfiante. Avant même de livrer l’article final mis en page, le modèle commence par « penser à voix haute ».
Il annonce d’emblée que la réponse à la conjecture est « oui » : la limite tend bel et bien vers 1.
Puis, l’IA détaille son modus operandi. Pour faire simple : là où les mathématiciens s’étaient enlisés, la machine fait un pas de côté. Elle va piocher dans des formules et des concepts mathématiques (habituels dans d’autres domaines) que personne n’avait songé à appliquer à ce problème précis. Et ce n’est pas tout.
Dans la retranscription de la conversation, le chatbot agit comme un véritable chercheur minutieux : il « stress-teste » ses propres calculs pour s’assurer que son argumentaire est « parfaitement étanche » avant d’en générer le code de mise en page.
Un « verrou mental » de 60 ans fracturé
Le chemin pris par l’IA a fait mouche. Alertés par les deux jeunes gens, les mathématiciens Jared Lichtman et Terence Tao — ce dernier ayant déjà supervisé la validation de la preuve du problème #397 en début d’année — se sont penchés sur le document.
Comme l’a confié Jared Lichtman à Scientific American, la rédaction brute générée par ChatGPT était au départ « assez pauvre » et a nécessité l’intervention des deux experts pour être nettoyée et raccourcie, cela afin de mieux mettre en évidence la trouvaille centrale du modèle d’IA. Des défauts qui n’ont pas amoindri du tout l’idée conceptuelle initiale.
Terence Tao résume bien la situation auprès du magazine scientifique américain : « Ce qui commence à émerger, c’est que le problème était peut-être plus facile que prévu, et qu’il y avait une sorte de blocage mental ». Il ajoute que depuis 60 ans, « les humains qui ont examiné le problème ont collectivement pris un mauvais virage dès le premier mouvement. »
En somme, l’IA semble avoir échappé aux biais et aux réflexes dans lesquels s’enfermaient inconsciemment ou non les mathématiciens. L’IA a tracé sa propre route, sans emprunter les chemins déjà ouverts — peut-être que les consignes initiales suggérant de ne pas aller sur Internet ont justement pu être salutaires pour explorer des voies originales.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Toute l'actu tech en un clin d'œil
Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !
Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !












