Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

DeepNude : Github a finalement supprimé les copies de l'algorithme qui « déshabille » les femmes

Des copies du code du logiciel DeepNude, qui « déshabillait » les stars, ont été publiées sur la plateforme GitHub. Elle a finalement décidé de les bannir.

Les deep fakes, de fausses images si bien imitées qu'elles semblent réelles, donnent du fil à retordre à GitHub. La plateforme d'hébergement de projets de logiciels a dû interdire les copies d'un site de faux nus controversé, DeepNude. Des développeurs avaient créé des copies de son code, racontait Motherboard ce mardi 9 juillet.

Un site pour « déshabiller » des femmes sans leur consentement

DeepNude était un site de création de deep fakesFin juin, il a été pointé du doigt car il posait de sérieux problèmes éthiques et légaux. Le but de ce site était de générer de faux nudes de stars, à partir de photos sur lesquelles elles étaient habillées.

Le site ne fonctionnait que sur les corps féminins, leur ajoutant des seins et vulves virtuelles, mais réalistes. Le site avait été fermé par son créateur à la suite de nombreuses critiques.

D'autres développeurs ont ensuite publié sur la plateforme libre GitHub des codes similaires à celui du site DeepNude. Ils permettaient également de « déshabiller » des femmes. GitHub a fait savoir à Motherboard que toutes les copies open-source de DeepNude seraient considérées comme contraires au règlement qui proscrit « les contenus obscènes ». Elles seront en conséquence supprimées.

Un logiciel contraire aux règles de GitHub

L'une des copies en question avait été publiée par le créateur de DeepNude lui-même. Il expliquait pourtant fin juin avoir pris conscience de l'aspect dérangeant de son « projet », indiquant que le monde n'était « pas prêt pour ça ».

https://twitter.com/deepnudeapp/status/1144307316231200768

« Malgré les mesures de sécurité adoptées [de simples banderoles « fake » facilement effaçables], si 500 000 personnes utilisent DeepNude, la probabilité qu’il y ait parmi elles des personnes qui l’utilisent à des fins malveillantes est trop élevée », arguait-il alors.

DeepNude était une application payante. GitHub avait dans un premier temps autorisé la publication de son code. Il estimait que « DeepNude utilisait une méthode intéressante qui pourrait contribuer à résoudre des problèmes liés à l'intelligence artificielle » et qu'en conséquence, son code pourrait « être utile à des chercheurs et développeurs qui travaillent dans le milieu de la mode, du cinéma ou des effets spéciaux ». L'entreprise a ensuite changé d'avis, se rappelant que DeepNude était contraire à ses conditions d'utilisation...

Les faux montages pornographiques proscrits par la loi

GitHub n'a justifié son choix que par la présence de nudité. Pourtant, les faux nus, que ce soit sur DeepNude ou qu'il s'agisse de simples montages, ne sont pas uniquement choquants pour cette raison. Ils s'apparentent en réalité à une violation de la vie privée des victimes. Même faux, des nudes peuvent servir à faire pression sur elles, à tenter de les humilier ou de leur faire du mal. Ils sexualisent une personne qui n'a pas demandé à l'être et constituent une forme de harcèlement.

La loi française interdit d'ailleurs l'utilisation et la diffusion de faux montages pornographiques. Dans l'article 226-8 du Code pénal, on lit que c'est passible d'un an d'emprisonnement et 15 000 euros d'amende, sauf s'il « apparaît à l’évidence qu’il s’agit d’un montage ou s’il en est [fait] expressément fait mention ». DeepNude appliquait une étiquette « fake » sur les montages obtenus. Ils étaient cependant très faciles à retirer, simplement en recadrant l'image.