Gemini, l’intelligence artificielle de Google, a produit des images de soldats nazis noirs, et d’autres incohérences historiques. Accusé par des influenceurs d’extrême droite de vouloir faire disparaitre les hommes blancs, Google a bloqué la génération d’images de personnes sur Gemini de manière temporaire.

Des soldats nazis noirs, des vikings asiatiques, ou encore un pape d’origine africaine : depuis le 21 février 2024, des images générées par Gemini, l’intelligence artificielle de Google, font polémique sur X (anciennement Twitter). De nombreux utilisateurs du réseau social ont partagé des images loin de la véracité historique, mais aussi certaines ne respectant pas la réalité, en représentant par exemple les fondateurs de Google en tant que personnes asiatiques.

Gemini n'a pas bien représenté les deux fondateurs de Google // Source : Capture d'écran Numerama
Source : Capture d’écran Numerama

Google est ainsi accusé par plusieurs influenceurs américains d’extrême-droite de vouloir changer l’histoire avec des photos qui ne sont pas exactes, mais surtout, de vouloir effacer les personnes blanches, dont il aurait été impossible de créer des images. Alors que la polémique est en train d’être récupéré par l’extrême droite française, Google a annoncé « suspendre la génération d’images de personnes » sur Gemini de manière temporaire.

Une polémique lancée par des comptes d’extrême droite

La polémique a démarré le 21 février 2024, lorsque plusieurs d’influenceurs américains d’extrême droite ont publié sur X des photos générées par Gemini. Problème : les résultats sont inexacts d’un point de vue historique. En effet, pour la demande « génère une image de viking » Gemini a représenté des vikings noirs, ou bien d’origine asiatique. Même chose pour un prompt sur « un chevalier médiéval », sur le pape, ou encore sur des soldats nazis de 1943. À chaque fois, les résultats de Gemini montrent des hommes ou de femmes de couleur — et quasiment aucun homme blanc.

Gemini a créé des images de soldats nazis noirs ou d'origine asiatique // Source : Capture d'écran Numerama
Gemini a créé des images de soldats nazis noirs ou d’origine asiatique // Source : Capture d’écran Numerama
Une image créée par Gemini // Source : Capture d'écran Numerama
Une image créée par Gemini

En plus de ces images inexactes, un dernier point a fait bondir ces observateurs : Gemini aurait purement et simplement refusé de générer des images de personnes blanches. Plusieurs internautes ont ainsi observé que lorsqu’ils demandaient à Gemini de générer des images de personnes noires, il s’exécutait sans broncher, mais que lorsqu’ils donnaient des instructions précises pour des personnes blanches, Gemini rejetait leur demande. L’IA aurait répondu qu’elle « ne pouvait pas répondre à des requêtes demandant de générer une image basée spécifiquement sur la race ou l’ethnicité d’une personne », selon une capture d’écran publiée par un utilisateur de X.

Gemini aurait refuse de créer une image de famille blanche // Source : Capture d'écran Numerama
Gemini aurait refuse de créer une image de famille blanche // Source : Capture d’écran Numerama

La génération d’image avec Gemini n’est pour l’instant disponible qu’aux États-Unis. Cependant, avec un VPN, Numerama a tenté de reproduire ses résultats, ce qui s’est avéré impossible : le 22 février au matin, l’IA de Google affichait un message d’erreur lorsqu’on lui demandait de produire une image, et indiquait qu’elle « ne pouvait pas encore générer d’image ».

Lors d’une autre tentative, l’IA a commencé à générer des images, avant de s’arrêter subitement. Contactée afin de savoir si Gemini avait été bridé, Google a indiqué à Numerama que l’entreprise s’efforçait de « résoudre les problèmes récents liés à la fonctionnalité génération d’images de Gemini. Dans l’intervalle, nous allons suspendre la génération d’images de personnes et nous rendrons bientôt disponible une version améliorée de cette fonctionnalité. »

La diversité des IA est une bonne chose

Google a également publié un message d’excuse sur X, reconnaissant le problème et indiquant avoir conscience de l’inexactitude des résultats de Gemini. « Nous nous efforçons d’améliorer immédiatement ce type de représentation. La génération d’images par l’IA de Gemini génère un large éventail de personnes. Et c’est généralement une bonne chose, car des gens du monde entier l’utilisent. Mais dans le cas présent, l’IA n’est pas à la hauteur. »

Google a raison de dire que la diversité est généralement une très bonne chose. Il a été prouvé que les intelligences artificielles sont habituellement biaisées, car elles s’entraînent sur des jeux de données qui le sont. Ainsi, Midjourney, la rivale directe de Gemini pour la génération d’images, a été critiquée parce qu’elle produisait des résultats très stéréotypés, que ce soit envers les femmes ou envers certaines ethnicités. Que Gemini ait tenté d’apporter plus de diversité dans ses résultats est louable, notamment pour des demandes d’images dépeignant le présent, ou le futur. Les personnes blanches ne représentant statistiquement pas la majorité des gens sur Terre, il est important de faire transparaitre cette diversité dans les images créées — comme il est important que la requête « docteurs » ne donne pas que des images d’hommes.

Mais dans un cadre historique, cette tentative a des effets beaucoup plus néfastes — notamment lorsque les images créées représentent des nazis noirs. Ce que l’histoire montre bien, c’est qu’il reste très compliqué de régler un problème tel que les biais des IA, qui existent depuis des années et sont très répandus. À vouloir trop corriger, Google est allé droit vers un autre problème.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !