Les cybercriminels sont prêts à payer cher des deepfakes directement exploitables ou des spécialistes pour leur construire des arnaques sur mesure.

L’IA créée déjà de nouveaux jobs, mais pas ceux que l’on attendait. La société de cybersécurité Kaspersky révèle dans un rapport publié le 9 mai 2023 que la demande de spécialistes dans les deepfakes est en forte hausse sur tous les forums de hackers. Les malfaiteurs cherchent en priorité à développer des copies de visages pour tromper les victimes ou les systèmes de sécurité. Sur de nombreuses plateformes russes, des cybercriminels postent des annonces de recherches « urgentes » de deepfakes pour diverses arnaques.

Par exemple, des demandes concernent la création ou l’imitation d’un visage pour contourner la vérification par reconnaissance faciale de la plateforme Binance. Ils pourraient ainsi tenter de rentrer sur le compte d’une victime.

Toujours dans l’univers des cryptos, un fournisseur proposait un service haut de gamme pour la création d’un deepfake de qualité du cofondateur d’Etherium, Vitaly Buterin, avec sa voix et une vidéo entièrement synthétisée. L’objectif serait ici de lancer de fausses campagnes d’investissements, comme cela a déjà été fait par le passé avec le dogecoin et Elon Musk. Ici, l’annonceur demandait jusqu’à 20 000 dollars pour la création de son deepfake.

Une arnaque sur la chaine d'une Youtubeuse indienne. // Source : YouTube / Numerama
Une arnaque sur la chaine d’une Youtubeuse indienne. // Source : YouTube / Numerama

Cette méthode est d’ailleurs très en vogue et les usurpations de stars de la crypto figurent parmi les arnaques les plus courantes. Des escroqueries tout en main sont proposées – il suffit de choisir la star – vendues pour environ 2 500 euros, avec la promesse de gagner le double derrière.

« Mieux que l'original » peut-on lire sur un publicité pour des arnaques deepfakes prêtes à être déployées. // Source : Kaspersky
« Mieux que l’original » peut-on lire sur un publicité pour des arnaques deepfakes prêtes à être déployées. // Source : Kaspersky

Les deepfakes, des outils à bas coût

La transformation simple de voix est également proposée et peut conduire à des grosses pertes. En 2019, des fraudeurs ont créé une imitation audio convaincante de la voix du PDG d’un groupe énergétique britannique. Ils ont piégé un cadre supérieur de l’entreprise en lui faisant transférer 220 000 € à un prétendu fournisseur hongrois.

La multiplication des deepfakes est liée à l’émergence des outils basés sur l’intelligence artificielle. Plus un programme apprend et travaille sur des visages humains et plus il sera capable de les reproduire. De plus en plus de logiciels sont d’ailleurs fournis moyennant des abonnements très abordables aujourd’hui. Et, ces arnaques ne sont qu’une partie des vastes dangers des deepfakes. La désinformation et la pornographie sont autant d’autres dérives à prendre en compte.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !