Google présente de nouveaux algorithmes pour mieux lutter contre la pédocriminalité
Google a lancé une série d'outils mobilisant l'intelligence artificielle ce 3 septembre afin de lutter contre la pédocriminalité en ligne.
« En utilisant l'apprentissage de réseaux de neurones profonds pour le traitement d'images, nous pouvons aider les évaluateurs à trier de nombreuses images, en hiérarchisant les contenus CSAM [ndlr : child sexual abuse material, soit des contenus d'abus sexuel sur des enfants] qu'il faut le plus probablement analyser », expliquent les deux membres de Google.
Comme le souligne The Verge, la majorité des outils servant actuellement à lutter contre la pédocriminalté en ligne utilisent une base d'images et de vidéos déjà identifiées comme des « CSAM », servant de comparaison aux images à vérifier. Ainsi, l'outil PhotoDNA de Microsoft procède au repérage de contenus illégaux en identifiant des fichiers images, vidéo ou audio sans qu'un évaluateur n'ait à les regarder. Leur « empreinte » est alors comparée à celles d'autres fichiers, préalablement identifiés comme contenant des contenus illégaux.
La limite de cette technique est de n'empêcher que la diffusion de fichiers semblables à d'autres déjà identifiés comme abusif. Pour le reste des fichiers, l'intervention humaine reste inévitable et oblige les évaluateurs à se confronter à des contenus violents. Une réalité très bien mise en avant dans un documentaire d'Arte intitulé Les Nettoyeurs du Web, qui montre le quotidien de ces « petites mains » confrontées chaque jour à des centaines d'images horribles.
Hiérarchiser le travail des modérateurs
Les nouveaux outils annoncés par Google doivent apporter une solution à cet écueil : leur but est d'aider les évacuateurs à classer les contenus signalés et de « hiérarchiser les contenus CSAM à examiner en priorité ».
L'entreprise assure que son initiative devrait faciliter l'évaluation des contenus de pédocriminalité, en faisant... gagner du temps aux modérateurs qui pourront analyser davantage de contenus. Google a estimé que 700 % de contenus illégaux avaient été évalués en plus avec l'aide de ses algorithmes, que pour un même temps donné sans recourir à cet outil.
Google précise que ses nouveaux outils sont désormais mis à la dispositions des organisations et ONG, via son interface de programmation Content Safety -- un formulaire permet d'en faire la demande.