Une parlementaire demande au gouvernement son plan d'action contre les « deepfakes », ces vidéos truquées qui détournent l'image des personnalités.

C’est une vidéo qui avait fait sensation au moment de sa publication. On y voit Barack Obama en train d’insulter son successeur, Donald Trump. Il s’avère que tout ceci était truqué : la voix de l’ancien chef d’État américain était en fait celle d’un imitateur et les mouvements de ses lèvres étaient tout simplement générés par ordinateur afin qu’ils correspondent aux propos tenus.

La vidéo, qui avait un objectif pédagogique en rappelant au grand public l’importance de conserver un esprit critique face à ce qui vu ou lu sur Internet, était par ailleurs la première démonstration médiatique du phénomène des « deepfakes ». Ce terme regroupe ces vidéos dans lesquelles l’image personnalités est manipulée pour leur faire dire n’importe quoi ou à des fins pornographiques.

Le gouvernement interpellé

Encore assez peu évoqué par le législateur (le terme apparaît notamment dans deux rapports d’information parlementaires, sur la lutte contre la manipulation de l’information et sur l’école dans la société du numérique, ainsi que dans certains comptes-rendus en commission), le défi posé par les deepfakes pourrait déboucher sur une action spécifique du gouvernement.

C’est en tout cas ce que suggère en filigrane la question écrite d’une députée, Caroline Janvier, de la République en marche. Publiée le 5 février au Journal officiel, elle demande à Mounir Mahjoubi, le secrétaire d’État en charge des sujets numériques au sein, quels sont les plans de l’exécutif pour « lutter efficacement » contre ces vidéos. Car pour l’élue, il y a danger pour la qualité du débat public.

« Les progrès techniques en IA ont permis l’émergence de vidéos et de bandes sonores montées de toutes pièces »

Avec les progrès importants obtenus par l’apprentissage automatique — une discipline de l’intelligence artificielle — au cours des dernières années et la puissance de calcul toujours plus forte des ordinateurs, le trucage pourrait finir par devenir indétectable, craint-elle. Si ce type de manipulation se banalise, cela aurait alors «  des répercussions […] dans le champ socio-politique et le débat public ».

Surtout que le détournement ne se limite pas aux visages. Le mouvement des corps peut aussi être modifié, comme l’ont montré quatre universitaires travaillant à Berkeley, en Californie. Et, cerise sur le gâteau, le timbre de la voix peut aussi être reproduit à partir d’un enregistrement préalable — ce qui n’est pas difficile à trouver dans le cas d’une personnalité publique, par exemple.

Vers une réponse législative ?

Hasard du calendrier, la question de la parlementaire arrive quelques semaines après l’entrée en vigueur de la loi relative à la lutte contre la manipulation de l’information, le 24 décembre 2018. Par leur nature, les deepfakes peuvent servir à manipuler l’information. Cela étant, le texte ne mentionne pas directement ces détournements audiovisuels, ce qui laisse à priori un espace pour une action législative spécifique.

C’est d’ailleurs ce que suggère l’élue, en évoquant « une réponse politique et sociétale pour que le fossé entre l’information contenue sur les réseaux sociaux et celle travaillée par les organes de presse ne se creuse encore ». Cette réponse pourrait se coupler à une action plus technique, avec des algorithmes capables justement d’identifier les vidéos truquées. Des travaux sont justement en cours.

Partager sur les réseaux sociaux