Une agence rattachée au département de la défense des États-Unis finance le développement d'une technologie pour lutter contre les deepfakes. La plateforme MediFor doit pouvoir identifier les vidéos et photos altérées par des IA.

Les « deepfakes », ces images et sons fabriqués de toute pièce grâce à l’intelligence artificielle — et présentés comme véridiques — sont parfois saisissants de réalisme. Pour lutter contre ce procédé, l’entreprise américaine SRI International a obtenu une autorisation du gouvernement américain, afin de développer une technologie capable d’identifier des vidéos et photos altérées.

Les contrats accordés par l’Agence pour les projets de recherche avancée de défense (DARPA) doivent permettre à SRI International d’identifier les contenus qui font l’objet d’une manipulation, grâce à une plateforme baptisée MediFor.

Détecter les vidéos et photos altérées

« Si le projet est un succès, la plateforme MediFor détectera automatiquement les manipulations, fournira des informations détaillées sur la manières dont ces manipulations ont été faites, et réfléchira sur l’intégrité générale des contenus visuels, pour faciliter les décisions liées à l’utilisation de toute image ou vidéo douteuse », écrit David Gunning, responsable du programme au sein de la DARPA.

Dans le cadre de ce projet, SRI International devrait travailler en lien avec l’Université d’Amsterdam et l’Institut de recherche Idiap en Suisse. Ce groupe de recherche envisagera quatre techniques différentes pour identifier les anomalies visuelles dans les vidéos : l’analyse du mouvement des lèvres, la détection des incohérences dans le discours, dans les scènes (comme la taille d’une pièce ou son acoustique) et l’identification des images insérées.

L’usage des deepfakes pose en effet des questions éthiques importantes. Dans l’industrie cinématographique, un syndicat d’acteurs et de figurants insistait récemment pour que la loi défende les artistes contre ces faux contenus.

Partager sur les réseaux sociaux