Un candidat indien a utilisé une vidéo deepfake « positive » dans sa campagne électorale. Mais son consentement suffit-il à rendre la pratique valide et autorisée en politique ? Elle soulève de nombreux problèmes.

La vidéo ressemble à n’importe quelle allocution d’un homme politique s’adressant à ses concitoyens en période d’élection. Manoj Tiwari, candidat aux élections législatives indiennes, est attablé dans son salon, ce qui met l’emphase sur sa proximité avec le peuple. Il fixe la caméra et prononce un discours d’une quarantaine de seconde dans un anglais parfait avec un fort accent indien, dans lequel il critique Arvind Kejriwal, le ministre en chef de Dehli.

Cette vidéo est pourtant fausse. La vidéo originale, dans une autre langue, est ici.

Il s’agit d’un deepfake, une vidéo manipulée grâce à des algorithmes, qui ont permis au candidat de se mettre en scène, le 7 février dernier, la veille du jour du vote. L’objectif officiel : que son discours, prononcé à l’origine en Hindi, puisse être partagé dans d’autres langues, sans passer par le sous-titrage ni le doublage. Comme l’a relevé Vice, qui a en premier enquêté sur le sujet, la vidéo deepfake a été déclinée en deux langues : en anglais et en haryanvi, une langue parlée majoritairement dans l’État d’Haryana.

Ce choix ne doit rien au hasard. L’un des objectifs de l’homme politique était de cibler particulièrement les électeurs migrants venant d’Haryana et qui travaillent à Dehli pour les convaincre de ne pas voter pour Arvind Kejriwal, le ministre en chef sortant — qui a finalement remporté l’élection régionale de la capitale indienne.

Deepfakes et politique

Le résultat de ces modifications est saisissant : le visage de l’homme politique a été juste assez modifié (et des pauses dans son rythme de diction rajoutées) pour que les mouvements de sa bouche correspondent aux syllabes qu’il a l’air de prononcer. La firme à l’origine de ce montage a en fait embauché un acteur pour prononcer le discours dans une autre langue, puis a superposé ces mouvements de lèvres au visage de l’homme politique. C’est d’ailleurs pour ça que la voix est différente.

C’est exactement le niveau de duperie que les vidéos, que l’on appelle communément deepfakes, réussissent à atteindre aujourd’hui.

Voici déjà deux ans que ces vidéos modifiées grâce à des puissants algorithmes inquiètent les observateurs, notamment pour les implications gravissimes qu’elles peuvent avoir dans le débat public en période d’élections. À la mi-2019, un exemple avait mis l’accent sur l’ampleur des dangers que peuvent représenter ces vidéos trafiquées ; il concernait Nancy Pelosi, la présidente de la Chambre des représentants américain, montrée en train de bafouiller comme si elle était ivre au cours d’une allocution publique. La vidéo, fausse, avait été partagée par son opposant Donald Trump — le président américain se rendant ainsi coupable de diffusion d’une vidéo mensongère. Cette vidéo n’a jamais été supprimée par Twitter, montrant combien les plateformes ne savent pas comment agir contre ces deepfakes.

Un deepfake « consentant » est-il vraiment moins grave en politique ?

L’existence de vidéos modifiées soulève beaucoup d’inquiétude sur la mise en danger du processus démocratique. Jusqu’ici, les images fixes étaient beaucoup scrutées (les actes de montages Photoshop étant désormais monnaie courante), mais les vidéos semblaient présenter moins de danger d’altération, ou en tout cas, avec une moins grande qualité de travail. À présent, le niveau de perfectionnement de la modification d’une vidéo est si élevé qu’il peut tromper une très grande partie de l’électorat, et ce, même si certains médias tentent de vérifier et contredire ces informations.

L’exemple indien de Manoj Tiwari est intéressant, car il s’agit ici d’un deepfake volontaire, émanant d’un contrat entre son parti, le BJP (Bharatiya Janata Party), et une entreprise de communication politique qui s’appelle The Ideaz Factory. « La technologie deepfake nous a permis d’étendre nos efforts de campagne comme jamais auparavant », a expliqué Neelkant Bakshi de The Ideaz Factory à Vice. « Les vidéos en langue Haryanvi nous ont permis de toucher un public de manière convaincante, même si le candidat ne parlait pas leur langue. » Ces deux vidéos auraient été partagées dans plus de 5 800 groupes WhatsApp (une application très utilisée en Inde pour recevoir et partager des informations), touchant au moins 15 millions de personnes dans la région de Dehli.

Les avantages sont évidents : une vidéo sous-titrée ou doublée touche forcément moins facilement le public visé, et rajoute une barrière invisible qui diminue les capacités d’empathie envers la personne et son message. Aussi les vidéos modifiées de Manoj Tiwari sont-elles claires, courtes et précises, faciles à comprendre, et le message simple à assimiler. Mais il n’empêche que le candidat a partagé volontairement des vidéos trafiquées, et qui induisent également les électeurs et électrices en erreur — sur sa capacité à leur parler en plusieurs langues, notamment.

En théorie, le consentement de la personne concernée par le deepfake est crucial, mais il ne change pas, en pratique, la réception du message par ceux qui regardent la vidéo. Aujourd’hui, les vidéos deepfakes sont majoritairement utilisées à des fins d’humiliation pornographique, mais demain, la technologie sera accessible au plus grand nombre. Une nouvelle ère, dans laquelle il sera impossible de déterminer si une vidéo est réelle ou non, nous attend, et la question du « deepfake positif » se posera.

Une vidéo truquée volontairement par la personne concernée est-elle au fond moins grave, ou participe-t-elle au problème plus global de la propagation des deepfakes dans l’espace public ? Pour l’instant, les réseaux sociaux comme Facebook et Twitter ont pris la décision de ne pas censurer ces vidéos, mais si cette position vient à changer, alors l’existence de deepfakes « positifs » (ou plutôt, consentants) viendra ajouter du doute dans le processus de décision. Faut-il supprimer une vidéo uniquement lorsqu’elle fait du tort à la personne concernée, ou parce qu’elle est, par essence, fausse, et donc induit en erreur celles et ceux qui la regarderont ? La question n’a pas fini de faire débat.


Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !