Après la polémique provoquée par Grok, l’IA de xAI sur le réseau social X, de premières estimations chiffrées émergent. Selon une étude de l’ONG AI Forensics, reprise par The Guardian et le New York Times, entre 1,8 et 3 millions d’images à caractère sexuel auraient été produites à l’aide de cet outil en l’espace de quelques jours.

Les chiffres sont tombés. Après la polémique autour de Grok — l’IA du réseau social X d’Elon Musk — qui a généré des images sexualisées de femmes sans leur consentement, des estimations commencent à émerger. Si le nombre exact fait encore débat, l’ampleur du phénomène reste frappante : entre le 25 décembre et le 1er janvier 2026, environ 65 % des images produites par l’outil de xAI seraient de nature sexuelle, selon une étude menée par AI Forensics, en collaboration avec le Center for Countering Digital Hate (CCDH).

Cette estimation, reprise par The Guardian le 22 janvier 2026, évoque environ 3 millions d’images sexualisées au début du mois, dont 23 000 semblant représenter des enfants, selon les projections des chercheurs. Pour ces derniers, Grok est ainsi « devenu une machine à l’échelle industrielle pour la production de matériel d’abus sexuels ».

Comment sait-on que Grok a généré plus de 3 millions d’images sexuelles ?

Dans son rapport Grok Unleashed, AI Forensics explique avoir collecté 20 000 images générées par le compte @Grok entre le 25 décembre 2025 et le 1er janvier 2026, ainsi que 50 000 prompts associés. Le CCDH précise que les chercheurs ont utilisé un outil d’IA pour déterminer la proportion d’images sexualisées de personnes dans un « style photoréaliste ». Un second processus, également assisté par IA, a ensuite servi à repérer les images sexualisées impliquant des enfants. Celles-ci ont enfin fait l’objet d’un examen manuel, afin de confirmer que les personnes représentées étaient manifestement âgées de moins de 18 ans.

Parmi ces images, 53 % montrent des personnes en « tenue minimale », dont plus de 80 % sont des femmes. Le rapport recense par ailleurs d’autres formes de sexualisation – nudité partielle ou totale, poses suggestives, cadrages centrés sur certaines parties du corps. Dans une fiche de synthèse, le Center for Countering Digital Hate (CCDH), partenaire de l’étude, agrège ces catégories et indique qu’environ 65 % des images analysées peuvent être considérées comme sexualisées.

65 % des images analysées peuvent être considérées comme sexualisées. // Source : Center for Countering Digital Hate
65 % des images analysées peuvent être considérées comme sexualisées. // Source : Center for Countering Digital Hate

En parallèle, une analyse citée notamment par le New York Times estime qu’en neuf jours, plus de 4,4 millions d’images auraient été publiées par le compte @Grok sur X. Appliqué à ce volume, le taux d’environ 65 % observé par le CCDH dans son échantillon conduit bien à une projection d’environ 3 millions d’images sexualisées.

Le New York Times avance toutefois un autre ordre de grandeur, fondé sur un échantillon plus restreint de 525 images, et évoque plutôt 41 % d’images sexualisées, soit environ 1,8 million. Dans les deux cas, les chiffres de 3 millions et 1,8 million restent des projections à partir d’échantillons, et non des comptages exhaustifs.

Grok bloque la génération d’images sexuelles… mais pas totalement

Du côté de X, qui avait dans un premier temps réservé la génération d’images aux abonnés payants — provoquant un nouveau tollé –, les premiers garde-fous commencent à apparaître. Dans un message publié sur la plateforme le 14 janvier 2026, le compte officiel @Safety, chargé de la communication autour de la « sécurité » du réseau social, a détaillé plusieurs mises à jour. « Nous avons mis en place des mesures techniques pour empêcher le compte @Grok sur X d’autoriser la modification d’images de personnes réelles en tenues suggestives, comme des bikinis », indique le communiqué. Une restriction qui s’applique « à tous les utilisateurs, y compris les abonnés payants ».

Une partie du message publié par @Safety sur X. // Source : @Safety - X
Une partie du message publié par @Safety sur X. // Source : @Safety – X

Par ailleurs, dans les juridictions où ce type de contenu est illégal, les utilisateurs concernés ne pourront plus générer « des images de personnes réelles en bikini, en sous-vêtements ou en tenues similaires dans Grok sur X ». xAI précise mettre en œuvre des mesures de géoblocage similaires pour l’application Grok. Si ces annonces peuvent, à première vue, sembler rassurantes, une nuance importante mérite toutefois d’être soulignée. La génération d’images de personnes réelles en bikini ou en sous-vêtements est explicitement conditionnée au droit local : elle demeure donc potentiellement autorisée dans les pays où la législation ne l’interdit pas.


Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+
Toute l'actu tech en un clien d'oeil

Toute l'actu tech en un clin d'œil

Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !


Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !