Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser les commentaires pour donner votre avis, ou la page de contact pour nous contacter. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Tout n'est pas perdu pour lutter contre les deepfakes : cette IA peut identifier les images manipulées

Les deepfakes sont des photos et vidéos entièrement manipulées mais très difficiles à repérer. L'intervention d'une IA pourrait aider à lutter contre ce phénomène inquiétant.

Avec les deepfakes, il devient plus dur que jamais de se fier à ce que l'on voit sur internet. Ces images et vidéos sont si bien truquées qu'elles ne sont pas forcément repérables comme étant fausses. Avec la prolifération des fake news et du revenge porn, il y a de quoi s'inquiéter. Pour lutter contre le phénomène, des chercheurs de l'Université de Californie ont conçu une intelligence artificielle capable de repérer les altérations et ont publié leurs résultats le 18 juillet.

Les deepfakes sont capables de transférer les mouvements d'une personne sur une autre, autant le visage que la voix. Cette technologie a d'ores et déjà trouvé quelques mises en pratique malsaines, comme l'app DeepNude qui était capable de déshabiller des femmes, ou ce discours de Barack Obama qui n'a jamais existé.

Il reste toujours des traces d'une altération

Même un montage extrêmement sophistiqué a des failles. « Nous observons que la plupart des images manipulées laissent des traces près des zones manipulées », expliquent les chercheurs dans leur papier. Chaque objet, dans une image, a des contours. L'ajout et la modification d'objets va automatiquement altérer ces contours, créer des petites différences. Dans le cas d'un deepfake, même si c'est totalement invisible à l’œil nu, ces traces perdures à l'échelle des pixels.

Les chercheurs se sont donc basés sur une IA construite sous forme de réseau neuronal artificiel. Ils lui ont appris à repérer les différences, à partir d'une banque de vraies images et d'images manipulées (sur lesquelles les contours modifiés étaient labellisés pour l'IA).

« Si vous lui donnez une image manipulée ou non, elle peut maintenant vous transmettre une probabilité que l'image soit manipulée ou non, et localiser la zone où la manipulation est faite », indique Amit Roy-Chowdhury, qui a participé aux recherches. L'IA fait encore des erreurs, mais très peu.

Pour l'instant, ce réseau neuronal artificiel ne fonctionne qu'avec des image fixes, mais l'équipe est confiante de pouvoir l'étendre aux vidéos, car il s'agit « tout simplement d'une suite d'images fixes mises bout à bout ».

Si Amit Roy-Chowdhury est persuadé que ce genre d'intelligences artificielles pourront aider à lutter contre les deepfakes, il explique qu'on est encore très loin d'un outil entièrement automatisé pour détecter les deepfakes ; il faut au moins une vérification humaine des décisions de l'IA, car elle peut passer à côtés des subtilités.