Les images pédopornographiques générées par IA pullulent sur les forums criminels, selon une étude. L’association qui l’a produite, l’Internet Watch Foundation, s’alarme de ce constat, d’autant que des personnes réelles apparaissent parfois dans ces images.

L’arrivée des intelligences artificielles génératives a bouleversé de nombreux domaines — de l’écriture, avec notamment ChatGPT, à l’art ou à la photographie, comme avec Midjourney. Mais il y a également des secteurs plus sombres que l’IA est en train de radicalement changer — et c’est exactement ce qu’il s’est passé avec les images pédopornographiques.

Depuis la fin d’année 2022 et la démocratisation de ces technologies, de nombreux experts s’alarment de l’utilisation de ces outils par des pédocriminels. D’après une étude menée par l’association Internet Watch Foundation (IWF) parue le 25 octobre 2023, leurs craintes s’avèrent justifiées : les images pédopornographiques réalisées par IA pullulent sur certains forums.

« Des milliers d’images générées par l’IA montrant des enfants, dont certains ont moins de deux ans, soumis aux pires formes d’abus sexuels ont été découvertes », prévient l’IWF. Mais d’autres photos, toutes aussi effrayantes et créées par IA, vont bientôt présenter un nouveau problème : les images créées à partir de véritables personnes.

Des images de viol créées par IA

Pour réaliser son enquête, l’IWF a ausculté pendant un mois un forum du dark web et les images partagées dessus. Sur les 11 108 photos générées par IA montrant des images de maltraitance d’enfants, 2 978 représentaient des actes d’abus sexuels, et 564 représentaient des actes de viol, de torture sexuelle ou de bestialité.

« Parmi ces images, 2 562 étaient si réalistes que la loi devrait les traiter de la même manière que s’il s’agissait de véritables images d’abus », précise l’étude. « Plus de la moitié (1 372) de ces images représentaient des enfants en âge d’aller à l’école primaire (sept à dix ans) », et « 143 images représentaient des enfants âgés de trois à six ans, tandis que deux images représentaient des bébés (moins de deux ans). »

Ces chiffres, qui ne concernent qu’un seul forum, sont déjà très élevés — et « la méthode de fabrication » de ces images est particulièrement dérangeante. En effet, si certaines images sont générées ex nihilo, en se basant seulement sur des prompts très spécifiques et en créant des photos de personnes qui n’existent pas, d’autres ont été créées à partir d’images de véritables individus.

L’IWF explique dans son rapport que les visages et les corps de vrais enfants ont été « intégrés dans des modèles d’IA conçus pour reproduire de nouvelles images de ces enfants ». Le rapport de l’IWF indique que les utilisateurs du forum se partageaient ensuite des conseils pour « fine tuner » l’intelligence artificielle, c’est-à-dire, les entraîner à produire les contenus qu’ils désiraient avec les corps et les visages sur lesquels elle s’était entraînée. Certaines IA ont été entraînées sur des photos de véritables abus. « Des enfants qui ont été violés dans le passé sont maintenant intégrés dans de nouveaux scénarios parce que quelqu’un, quelque part, veut les voir », explique Susie Hargreaves, la directrice de l’IWF.

Une image d'enfant généré par intelligence artificielle  // Source : Numerama
Une image d’enfant générée par intelligence artificielle. // Source : Numerama

Selon l’IWF, les criminels sur ces forums utilisent également l’IA pour rajeunir des célébrités, et ainsi les représenter en tant qu’enfants dans des images et des scénarios pédopornographiques. Ce n’est pas la première fois que de l’IA est utilisée à ces fins : les deepfakes pornographiques existent depuis des années. Ces vidéos représentent généralement des stars, dont les visages ont été collés sur les corps d’actrices pornographiques, dans des vidéos X. Dans le cas de ces images générées par IA, les célébrités en question sont entièrement recréées par les logiciels, et apparaissent dans les scénarios voulus spécifiquement par les criminels.

L’IWF explique que l’IA peut être utilisée pour « déshabiller » des enfants, qui apparaissent dans des photos ou des vidéos normales et publiées innocemment sur Internet. « Les analystes ont constaté que ce contenu était commercialisé », précise l’étude.

« La collaboration internationale est vitale. Il s’agit d’un problème urgent qui nécessite une action immédiate. Si nous ne nous attaquons pas à cette menace, ce matériel risque de submerger Internet », alerte Susie Hargreaves. La collaboration étatique sur ce genre de sujet est nécessaire, mais il faudra davantage pour arrêter les criminels : les intelligences artificielles génératives sont facilement accessibles, et donc, facilement détournables.

En France, le cadre juridique est en tout cas très clair en ce qui concerne les photos à caractère pédopornographique : l’article 227-23 du Code pénal prévoit jusqu’à 5 ans de prison et 75 000 euros d’amende pour les images qui présentent un « l’image d’un mineur » avec un « un caractère pornographique ». Cela est vrai même dans les cas où les mineurs représentés n’existent pas : en 2007, la Cour de cassation avait décidé que « les images non réelles représentant un mineur imaginaire, telles que des dessins ou des images résultant de la transformation d’une image réelle » étaient concernées par la loi.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !