Face au philosophe Raphaël Enthoven, qui s’était lancé le défi d’affronter une intelligence artificielle, ChatGPT a écopé d’une note de 11 sur 20. C’est infiniment moins que les 20 sur 20 du philosophe, mais assez pour obtenir le diplôme. Un bouleversement ?

Raphaël Enthoven a battu ChatGPT, mais est-ce vraiment l’information essentielle ? À en croire les nombreux articles sur le sujet, nombreux sont ceux qui s’étonnent de voir le philosophe faire mieux que l’intelligence artificielle, à qui l’on a demandé de disserter sur le sujet « le bonheur est-il affaire de raison ? ». Raphaël Enthoven y voit la preuve que « le grand remplacement des profs de philo par l’IA n’est pas pour demain ». Néanmoins, personne ne semble relever un point essentiel : ChatGPT a eu la moyenne, alors qu’il n’est pas entraîné pour penser, mais pour compléter des phrases.

ChatGPT battu par Raphaël Enthoven

Pour ce défi inédit, ChatGPT a été spécialement entraîné par des ingénieurs et des profs de philo pendant une semaine (on imagine qu’une conversation a été alimentée de dissertations, pour lui donner du contexte sur ce qu’il devrait faire le jour de l’épreuve). D’ailleurs, personne ne dit quelle version du modèle de langage a été utilisée. On peut imaginer que c’est GPT-4, meilleure en réflexion, mais ce n’est pas confirmé.

Le jour de l’examen, le 14 juin, le prompt envoyé à ChatGPT était « Écris une copie de bac sur le sujet ‘le bonheur est-il affaire de raison’, mais avec humour et dans le style de Raphaël Enthoven ». La copie a ensuite été recopiée à la main par une étudiante, afin d’être rendue à l’autrice Éliette Abécassis, qui l’a relue, anonymement. Même chose pour celle de Raphaël Enthoven.

Première observation : Raphaël Enthoven est plus lent que ChatGPT. Sans surprise, il a fallu 1h15 au philosophe pour faire ce que l’intelligence artificielle génératrice a pu terminer en 1 minute 30 (le temps d’afficher le résultat à l’écran). Cependant, Éliette Abécassis assure que la comparaison est tout bonnement impossible « J’ai tout de suite reconnu » explique-t-elle à RTL, soi-disant parce que « le style de l’homme » est unique et que ChatGPT a mis des blagues étranges, qu’un vrai humain n’aurait jamais osées dans une copie de philo.

Après avoir relu les deux copies, l’autrice a décidé d’attribuer un 20 sur 20 à Raphaël Enthoven et un 11 sur 20 à ChatGPT. Une note parfaite pour le philosophe, qui indique pourtant qu’il avait obtenu un 11 lors de son vrai bac il y a plusieurs années. Il y voit la preuve que « la philo exige un désir et une intuition. Deux choses que la machine peut singer, mais dont elle ne peut pas prendre l’initiative ». Difficile de lui donner tort, particulièrement sur un sujet aussi littéraire. Où les connaissances ne sont là que pour accompagner le style.

Pour autant, l’IA a-t-elle été vraiment « nulle », comme on peut le lire dans de nombreux médias le 15 juin ? Un 11 sur 20 au bac est loin d’être une mauvaise note, encore plus quand on sait que ChatGPT est parfois volontairement bridé et que l’humour, qui lui a été demandé par les humains, s’est retourné contre lui.

Personne ne semble retenir l’information essentielle : ChatGPT, une IA incapable de penser comme le rappelle si bien le philosophe, est capable de faire mieux que de nombreux élèves (dont l’auteur de cet article et Raphaël Enthoven lui-même le jour où il a passé l’examen, de son propre aveu).

Ce n’est pas la première fois que ChatGPT réussit un examen

Raphaël Enthoven a raison sur une chose : les profs de philo ne seront pas remplacés par ChatGPT d’aussitôt. La spécificité des matières littéraires, spécifiquement de celle-ci, en fait des disciplines beaucoup trop subjectives pour qu’un algorithme mathématique soit capable de les maîtriser à la perfection. ChatGPT s’améliore avec le temps, mais ne répétera finalement que ce qu’il a lu ailleurs, en créant des connexions entre des choses qui peuvent correspondre, sans affect pour elles. Autrement dit, l’illusion pourra toujours être percée.

En revanche, dans d’autres disciplines, ChatGPT a déjà prouvé qu’il n’avait rien à prouver à l’homme. Les maths, la physique, le code, la médecine… Les matières scientifiques peuvent être apprises par une machine qui, grâce à ses capacités d’imitation de réflexion, est capable de résoudre des problèmes d’elles-mêmes. Encore plus impressionnant : GPT-4, le modèle de langage qui anime ChatGPT, serait capable de réussir l’examen pour devenir avocat en faisant partie des 10 % des meilleures copies.

Le logo de ChatGPT. // Source : Numerama
Le logo de ChatGPT. // Source : Numerama

Face à un vrai philosophe comme Raphaël Enthoven, ChatGPT n’a jamais eu la moindre chance. Le 11 sur 20 que lui attribue Éliette Abécassis, aussi subjectif soit-il, est néanmoins la preuve que les IA sont loin d’être condamnées à des tâches suppléantes de l’être humain.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !