Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

DeepNude & co : quand la technologie de pointe sert au harcèlement des femmes

Les deepfake sont des images si bien manipulées par des algorithmes qu'elles semblent vraies. Leur utilisation malveillante dans un contexte politique, finalement marginale, cache une autre réalité : celle d'un outil puissant servant au harcèlement.

Le résultat est aussi saisissant qu'effrayant. Pour une cinquantaine d'euros, l'application DeepNude « déshabille » la chanteuse Taylor Swift ou l'actrice Natalie Portman. Partant d'une simple photo de tapis rouge, on arrive à une image d'elles seins nus. Comme l'explique Motherboard dans un article publié mercredi 26 juin, il s'agit évidemment de fausses images. Ce sont ce que l'on appelle des deep fake, c'est-à-dire contenus conçus par des algorithmes entraînés à la reconnaissance et à la recomposition d'images. Si certains sont inoffensifs, d'autres font naître des interrogations et des craintes justifiées.

De faux seins et de fausses vulves

L'application DeepNude utilise des réseaux de neurones artificiels pour retirer les vêtements de personnes et faire croire qu'elles sont nues. Le logiciel lancé le 23 juin sur Windows et Linux ne fonctionne qu'avec les femmes, à qui il ajoute des seins et des vulves.

Motherboard a effectué le test avec des dizaines de photos et a obtenu des résultats convaincants, surtout avec les photos de bonne qualité ou celles où les femmes étaient déjà un peu dénudées (top court, maillot de bain, etc.). Ces tests n'ont nécessité aucune compétence technique, note le média.

Le créateur du site, un certain Alberto, a expliqué qu'il avait développé DeepNude à partir d'un logiciel open source mis à disposition par l'université de Berkeley, en Californie. Il a entraîné l'algorithme avec plus de 10 000 photos de femmes dénudées. Il songeait à créer une version pour hommes, mais a expliqué que les images étaient plus difficiles à trouver sur le Web. Il dit également qu'il pourrait accélérer et améliorer le processus de création de faux. Pour le moment, ces projets semblent compromis : quelques heures après la publication d'articles de presse, DeepNude a été fermé, rapporte The Verge.

Le créateur de l'application a indiqué sur Twitter qu'il avait pris conscience des risques du logiciel. « Malgré les mesures de sécurité adoptées [de simples banderoles "fake" facilement effaçables], si 500 000 personnes utilisent DeepNude, la probabilité qu'il y ait parmi elles des personnes qui l'utilisent à des fins malveillantes est trop élevée », a-t-il précisé. Selon lui, « le monde n'est pas prêt pour DeepNude ».

https://twitter.com/deepnudeapp/status/1144307316231200768

Harcèlement et revenge porn

La création et diffusion de deepfakes pose de nombreuses questions. Ces images sont parfois d'une telle qualité qu'il est difficile de les distinguer de vraies images. En conséquence, elles peuvent être utilisées à des fins de manipulation.

Il y a quelques semaines, une démocrate américaine, Nancy Pelosi, a fait l'objet d'une telle tentativeDes personnes ont manipulé l'un de ses discours pour faire croire qu'elle était très hésitante, voire sous l'emprise d'alcool. La vidéo a fait le tour du Web. Le président Donald Trump lui-même l'a partagée sur un réseau social.

Dans le cas de Nancy Pelosi, le but était de décrédibiliser une personnalité politique. Dans celui de l'application DeepNude, il est de dévoiler l'intimité d'une femme. Même si cette intimité est fausse (il ne s'agit que de montages photographiques), cela n'empêche pas les images d'être utilisées à des fins de harcèlement.

Le chantage aux nudes ou le revenge porn, une pratique qui consiste à diffuser les images dénudées d'un ou une ex sans son consentement, sont très courants. Les victimes pourraient céder aux exigences de leur harceleur si ce dernier menace de diffuser de fausses images. Qu'elles soient ou non réalistes, elles peuvent procurer la même sensation de honte ou gêne et il s'agit dans tous les cas d'une violation de l'intimité.

Danielle Citron, une professeure de droit qui a récemment témoigné devant le Congrès américain au sujet des deepfake, a parlé « d'invasion de la vie privée sexuelle ». « Oui ce n'est pas votre vrai vagin, mais... les autres pensent qu'ils vous voient nus », a-t-elle dit, ajoutant qu'une victime de deepfake pornographique lui avait confié qu'elle se sentait « comme si son corps ne lui appartenait plus ».

Des montages interdits en France

La loi en France interdit d'ailleurs à ce titre la diffusion de montages pornographiques. Dans l'article 226-8 du Code pénal, on lit : « Est puni d'un an d'emprisonnement et de 15 000 euros d'amende le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention ».

Les deepfakes questionnent aussi les plateformes du Web comme les réseaux sociaux. Récemment, Facebook a indiqué qu'il laisserait ces contenus -- non sexuels -- en ligne, en ajoutant seulement un encadré qui précise qu'il s'agit d'un faux. Cette fonctionnalité devait déjà être en place au moment de l'affaire Nancy Pelosi, mais nous n'avions vu aucun encadré sur les vidéos disponibles, ce qui questionnait l'efficacité du procédé.

Certains ont aussi interrogé la plateforme sur la nature des deepfake. Un artiste a ainsi publié sur Instagram un faux discours problématique de Mark Zuckerberg. Facebook a assuré qu'elle ne supprimerait aucun deepfake, même s'ils mettent en cause son CEO. Aujourd'hui, la vidéo est toujours en ligne.