Le nouveau chatbot Grok, censé être drôle et rebelle, pose la question du ton des intelligences artificielles. C’est le thème de la newsletter #Règle30 de la semaine.

Cet article est un extrait de la newsletter #Règle30, envoyée tous les mercredis à 11h. 

Pour s’inscrire et la recevoir gratuitement, c’est par ici.

J’aimerais beaucoup être une personne drôle. Hélas, je souffre d’un cas grave d’esprit de l’escalier. Même sur internet, j’ai tendance à trouver la bonne répartie trois jours après la fin naturelle d’une conversation amusante. Heureusement, je ne dispose pas de moyens financiers illimités pour vous inonder de mes vannes médiocres. Malheureusement, c’est le cas d’Elon Musk.

Le PDG qui rêvait d’être drôle (pour reprendre les termes de cet excellent article du Monde) n’hésite pas à impliquer ses entreprises dans sa quête éternelle de faire marrer ses followers, et de provoquer les autres. Dernier exemple en date : Grok, un chatbot développé par xAI, sa société dédiée à l’intelligence artificielle. Le logiciel veut rivaliser avec le célèbre ChatGPT. Surtout, il est censé être drôle. « Grok est entraîné à répondre aux questions avec humour et rébellion, donc ne l’utilisez pas si vous détestez rire ! », affirme son site officiel.

Grok est disponible depuis la semaine dernière pour les abonné·es premium+ de Twitter/X (l’offre la plus chère, à 16 dollars par mois). Et jusqu’ici, les impressions sont plutôt mitigées, y compris dans les rangs des fans d’Elon Musk. Ses réponses n’ont parfois aucun sens (un grand classique des IA génératives) et ne sont pas spécialement hilarantes. Imaginez un mélange entre un·e pré-ado qui se force à être vulgaire pour choquer les adultes et un épisode de la première saison de The Big Bang Theory.

Un exemple de dialogue avec Grok partagé par Elon Musk, en reprenant une blague populaire dans le monde anglo-saxon : pourquoi le poulet a-t-il traversé la route ?
Un exemple de dialogue avec Grok partagé par Elon Musk, en reprenant une blague populaire dans le monde anglo-saxon : pourquoi le poulet a-t-il traversé la route ?

Plus intéressant, la réception de Grok est aussi mauvaise à cause de ses valeurs politiques. Elon Musk avait promis un chatbot « anti-woke » (je mets volontairement ce mot entre guillemets, car j’estime toujours qu’il ne veut rien dire), face à des logiciels concurrents bridés pour éviter le plus possible les déclarations sexistes, racistes, homophobes, etc. Si on demande à Grok de résoudre le dilemme du tramway en utilisant une insulte raciste (une étrange obsession de l’extrême droite américaine), il répond « évidemment que j’utiliserais une insulte raciste pour sauver la vie de milliards de personnes. » En revanche, Grok se montre étonnamment progressiste sur d’autres sujets, en refusant, par exemple, d’être transphobe

L’humour est politique, sur nos écrans et en dehors

Qu’il lance un chatbot « politiquement incorrect » ou qu’il partage des mèmes, le but d’Elon Musk n’est pas seulement d’amuser la galerie. Car l’humour est politique (saviez-vous qu’on a longtemps considéré le rire des femmes comme immoral ?) et une arme efficace pour propager des idées sur nos écrans et en dehors. Ce n’est pas pour rien si des vannes populaires chez les internautes (Pepe la grenouille) ou des pratiques humoristiques de niche (le trolling) ont été cooptées par l’extrême droite et ses nombreux avatars en ligne. Les choses drôles attirent plus facilement l’attention qu’un pavé de texte ou une longue vidéo, et donnent une bonne excuse si on vous accuse de tenir des propos nauséabonds.

Il y a pourtant de vraies questions à se poser sur le ton des IA. Puisqu’elles charrient beaucoup de biais et donc de risques de dérapages, leurs développeurs limitent parfois leurs réponses, jusqu’à l’absurde. Si vous demandez à Llama 2, le modèle de langage open-source développé par Meta, une recette pour une mayonnaise « dangereusement épicée« , il refusera de s’exécuter, par peur des « dommages » potentiellement causés par une sauce trop piquante. D’un côté, il est préférable que nos IA soient ennuyeuses, pour se souvenir qu’il s’agit de simples outils (c’est d’ailleurs quand elles se plantent qu’elles sont les plus drôles). De l’autre, qui décide de ce qui est sûr ou non ? Un ton froid ne règlera pas les nombreux problèmes d’inclusion qui émaillent le développement, l’entretien et l’exploitation de ces programmes qu’on nous vend pourtant comme l’avenir de l’humanité. C’est sans doute la pire blague de cette histoire. 


Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !