Les deepfakes sont des photos et vidéos entièrement manipulées mais très difficiles à repérer. L’intervention d’une IA pourrait aider à lutter contre ce phénomène inquiétant.

Avec les deepfakes, il devient plus dur que jamais de se fier à ce que l’on voit sur internet. Ces images et vidéos sont si bien truquées qu’elles ne sont pas forcément repérables comme étant fausses. Avec la prolifération des fake news et du revenge porn, il y a de quoi s’inquiéter. Pour lutter contre le phénomène, des chercheurs de l’Université de Californie ont conçu une intelligence artificielle capable de repérer les altérations et ont publié leurs résultats le 18 juillet.

Les deepfakes sont capables de transférer les mouvements d’une personne sur une autre, autant le visage que la voix. Cette technologie a d’ores et déjà trouvé quelques mises en pratique malsaines, comme l’app DeepNude qui était capable de déshabiller des femmes, ou ce discours de Barack Obama qui n’a jamais existé.

Cette vidéo de Barack Obama n'a jamais eu lieu : c'est un deepfake. // Source : Capture Youtube

Cette vidéo de Barack Obama n'a jamais eu lieu : c'est un deepfake.

Source : Capture Youtube

Il reste toujours des traces d’une altération

Même un montage extrêmement sophistiqué a des failles. « Nous observons que la plupart des images manipulées laissent des traces près des zones manipulées », expliquent les chercheurs dans leur papier. Chaque objet, dans une image, a des contours. L’ajout et la modification d’objets va automatiquement altérer ces contours, créer des petites différences. Dans le cas d’un deepfake, même si c’est totalement invisible à l’œil nu, ces traces perdures à l’échelle des pixels.

Les chercheurs se sont donc basés sur une IA construite sous forme de réseau neuronal artificiel. Ils lui ont appris à repérer les différences, à partir d’une banque de vraies images et d’images manipulées (sur lesquelles les contours modifiés étaient labellisés pour l’IA).

« Si vous lui donnez une image manipulée ou non, elle peut maintenant vous transmettre une probabilité que l’image soit manipulée ou non, et localiser la zone où la manipulation est faite », indique Amit Roy-Chowdhury, qui a participé aux recherches. L’IA fait encore des erreurs, mais très peu.

Cette IA repère les zones altérées grâce aux contours des objets qui ont été ajoutés ou modifiés.

Cette IA repère les zones altérées grâce aux contours des objets qui ont été ajoutés ou modifiés.

Pour l’instant, ce réseau neuronal artificiel ne fonctionne qu’avec des image fixes, mais l’équipe est confiante de pouvoir l’étendre aux vidéos, car il s’agit « tout simplement d’une suite d’images fixes mises bout à bout ».

Si Amit Roy-Chowdhury est persuadé que ce genre d’intelligences artificielles pourront aider à lutter contre les deepfakes, il explique qu’on est encore très loin d’un outil entièrement automatisé pour détecter les deepfakes ; il faut au moins une vérification humaine des décisions de l’IA, car elle peut passer à côtés des subtilités.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !