Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

La détection des deepfakes grâce aux algorithmes n'est pas encore au niveau

Facebook a partagé les résultats de son premier concours de détection des deepfakes. Il y a encore beaucoup de chemin à parcourir avant d'avoir des algorithmes efficaces : face à des cas inédits, les meilleurs systèmes ont un taux de précision d'à peine 66 %.

Il y a encore beaucoup de travail à accomplir avant d'avoir un système de détection des deepfakes à peu près potable. C'est ce qui ressort du challenge mis en place en 2019 par Facebook pour encourager la recherche à développer des algorithmes capables de repérer si une vidéo a été retouchée par l'informatique pour faire passer un message ou une impression autre que le contenu original.

Le dispositif le plus performant qui a participé au concours n'a atteint qu'un taux de précision de 65,18 % sur des vidéos inédites, pour lesquelles il n'avait pas été entraîné au préalable. En somme, une vidéo deepfake sur trois est passée à travers les mailles du filet. Ça s'est par contre mieux passé avec des données déjà connues : le degré de détection est monté à 82,56 %, soit moins d'un raté sur cinq.

Aucun des 2 114 participants, parmi lesquels se trouvaient des experts du monde entier, n'a atteint une précision moyenne de 70 % sur les deepfakes inédits qui figuraient dans l'ensemble de données gardé secret, a constaté Facebook. Cela veut aussi dire que le réseau social non plus n'y est pas parvenu : le site concourrait également, mais avait prévenu qu'il ne réclamerait aucun gain en cas de victoire.

100 000 clips à disposition

Le deepfake, ou vidéotox en bon français, est un terme apparu au milieu des années 2010 pour désigner ces vidéos dans lesquelles un visage a été remplacé par un autre grâce au trucage, afin de donner l'illusion que c'est une autre personne qui est mise en scène. Mais cela peut aussi être un trucage des gestes ou du corps, ou même de la voix. Voire une combinaison de tout cela.

Les deepfakes sont aujourd'hui utilisés à des fins pornographiques, en plaçant le visage d'une célébrité sur le corps d'une actrice de films pour adultes, mais aussi pour des détournements humoristiques ou de la manipulation politique. Le phénomène inquiète, car il est amené à progresser grâce à aux avancées en matière d’apprentissage automatique, une discipline de l’intelligence artificielle.

Pour ce challenger, ces 2 114 participants ont fourni pas moins de 35 109 modèles de détection par algorithme. Ils ont ensuite été expérimentés sur des vidéos tournées pour l'occasion. Plus de 100 000 clips ont ainsi été réalisés. Pour ce travail, Facebook s'est bien gardé d'aller piocher sur des vidéos en ligne : il a embauché plus de 3500 acteurs et actrices et obtenu leur accord pour utiliser leur image.

« Il est important d’avoir des données librement disponibles pour que la communauté puisse les utiliser, avec des participants clairement consentants et peu de restrictions d’utilisation », écrivait Facebook en septembre, lors de l’annonce de son concours, ajoutant à toutes fins utiles « qu'aucune donnée de membre Facebook ne sera utilisée  ». Ainsi, le site dispose d'un ensemble de données sans risque.

Une menace à long terme

De fait, le challenge montre que la détection des deepfakes grâce aux algorithmes n'est pas encore à un niveau suffisant pour régler le problème de la manipulation par des vidéos. Ce qui compte ici est la qualité de détection des algorithmes face à de nouveaux cas qui se présentent à eux et non pas leur précision face à des vidéos sur lesquelles ils ont déjà planché et qu'ils sont censés intercepter.

Car tout l'enjeu pour une plateforme comme Facebook est de pouvoir un jour avoir un outil capable de repérer automatiquement une vidéo truquée au moment de son partage sur sa plateforme et de pouvoir soit l'interdire (si elle enfreint son règlement), soit lui adjoindre une mise en garde afin que les internautes qui la voient soient avertis (si elle a été tournée à des fins politiques ou humoristiques).

C'est un problème ouvert, admet Facebook, mais néanmoins encore mineur. La bonne nouvelle est que le péril que font peser ces vidéos truquées est anecdotique. Il y a certes un souci évident d'atteinte à l'image et à la réputation avec l'émergence de vidéos pornographiques conçues par l'IA, mais aucune manipulation de masse par deepfake n'a été observée ou documentée.

Cela ne veut pas dire qu'il ne faut pas prendre dès à présent le problème à bras-le-corps. Ce challenge en est la preuve. En outre, Facebook a annoncé en début d'année de nouvelles règles à l'égard des vidéos manipulées, avec l'interdiction des deepfakes -- les parodies, les pastiches, les détournements, les satires restent autorisées. Cependant, le principal risque reste aujourd'hui les vidéos remontées, qui ne font figurer que des séquences authentiques, mais dont l'organisation et la présentation cherchent à influencer de façon plus insidieuse le public.

Selon toute vraisemblance, la mise en place d'outils automatiques de détection pour repérer les deepfakes laisse augurer une ère de course-poursuite technologique, avec des vidéos truquées de plus en plus réalistes et des algorithmes de plus en plus efficaces. Une sorte de jeu du chat et de la souris high tech, où l'un prendra prendra provisoirement le dessus sur l'autre, comme l'épée contre le bouclier.