Les deepfakes, des vidéos truquées réalisées à l’aide d’intelligence artificielle, sont de plus en plus nombreuses. La technologie pour en produire est également devenue facile d’accès ces dernières années, alors que les deepfakes peuvent être très dangereuses.

Il y a eu des deepfakes de Tom Cruise, de Volodymyr Zelensky, et un nombre incalculable de deepfakes pornographiques. Les deepfakes, contraction de deep learning et de fake, sont des vidéos truquées et modifiées, réalisées avec de l’intelligence artificielle (IA). De plus en plus nombreuses, elles soulèvent d’importantes questions, notamment au niveau de la détection de ces fausses vidéos, alors que l’IA est de plus en plus répandue.

Qu’est-ce qu’un deepfake ?

Concrètement, les deepfakes sont des fausses vidéos, réalisées avec de l’intelligence artificielle. Les logiciels peuvent « calquer » le corps et le visage d’une célébrité sur les mouvements effectués par une autre personne dans une vidéo. La voix aussi peut-être modifiée, en utilisant un logiciel imitant la voix d’une personne pour lui faire dire ce qu’on veut.

Ces vidéos peuvent être réalisées dans plusieurs buts. Certaines ne sont pas forcément néfastes : un compte TikTok, créé par une entreprise spécialisée dans l’intelligence artificielle, publie des vidéos deepfakes de Tom Cruise à des fins seulement humoristiques. Plus polémique déjà, le film Fairytale avait utilisé la technologie deepfake pour « ressusciter » Staline et Hitler et les faire « jouer » leur propre rôle.

Des deepfakes de Tom Cruise // Source : Metaphysic.ai / TikTok
Des deepfakes de Tom Cruise // Source : Metaphysic.ai / TikTok

Cependant, les deepfakes ont des origines profondément misogynes : en 2019, une étude montrait que la technologie était majoritairement utilisée pour créer des contenus pornographiques. Ces vidéos mettaient la tête de chanteuses ou de célébrités sur les corps d’actrice de films X, créant de fait de fausses sextapes — et elles étaient régulièrement utilisées pour rabaisser et humilier les femmes qui apparaissaient dedans. Cette pratique est d’autant plus préoccupante que des applications facilement accessibles permettent aux hommes de créer leurs propres deepfakes pornographiques.

Ces fausses vidéos sont également de plus souvent utilisées à mauvais escient. Les cybercriminels se servent de la technologie pour faire du chantage ou monter des arnaques visant des personnes très précises. Certains deepfakes de célébrités peuvent se vendre jusqu’à 20 000 dollars.

Les deepfakes se sont même invitées dans la guerre entre la Russie et l’Ukraine, devenant ainsi une arme géopolitique. Au mois de mars 2022, une fausse vidéo du président Volodymyr Zelensky, dans laquelle on pouvait le voir demander aux soldats de rendre les armes, avait circulé sur les réseaux sociaux. Le deepfake, de mauvaise qualité, n’avait pas convaincu grand monde, mais il représentait tout de même une première importante.

Comment ça marche ?

La technologie derrière les deepfakes a été développée en 2014 par le chercheur Ian Goodfellow, raconte Oracle, et les premiers deepfakes sont officiellement apparus en 2017 sur Reddit. La technologie GAN (Generative Adverarial Networks), également appelée technologie de réseaux antagonistes génératifs. Elle met en compétition deux algorithmes qui s’entraînent en même temps, et apprennent l’un de l’autre. « L’un tente de fabriquer des contrefaçons aussi fiables que possible ; l’autre tente de détecter les faux. De cette façon, les deux algorithmes s’améliorent ensemble au fil du temps grâce à leur entraînement respectif », indique Oracle.

Les GAN sont présents dans de nombreuses technologies développées à partir d’intelligence artificielle, notamment pour les IA de génération d’image, mais également ChatGPT, qui utilise la technologie pour formuler des réponses.

Comment identifier les deepfakes ?

Il peut être extrêmement difficile de différencier les deepfakes des vraies vidéos. Dans certains cas, comme la fausse vidéo de Volodymyr Zelensky, la mauvaise qualité permet tout de suite de dire qu’il s’agit d’un montage. Pour d’autres, un indice peut se trouver dans la position des personnages : les intelligences artificielles ont du mal à reproduire les personnes de profils, car il existe très peu de ce genre de photo dans les bases de données sur lesquelles elles s’entraînent.

Un extrait de la vidéo deepfake // Source : Numerama
Un extrait de la vidéo deepfake de Volodymyr Zelensky // Source : Numerama

Mais d’autres deepfakes sont d’ores et déjà impressionnants de réalisme et quasiment impossible à détecter à l’œil nu. Ceux de Tom Cruise, publiés par Metaphysic.ai sur TikTok, en sont la preuve.

La technologie avançant très vite, il est de de toute façon probable que les deepfakes soient bientôt capables de représenter les gens de profils. Il ne sert donc pas vraiment à grand-chose de savoir comment différencier une vidéo artificielle d’une vraie : aucune solution ne sera pérenne. La meilleure attitude à avoir est d’aborder toutes les vidéos et images avec suspicion, et toujours rester alerte, surtout si les faits annoncés semblent trop gros, ou trop extrêmes.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !