FaceApp est une application mobile capable de modifier la photo d’un visage grâce à l’intelligence artificielle, pour le rajeunir, le vieillir ou le rendre plus « sexy ». Or, ce dernier filtre a valu à l’application d’être accusée de racisme, rappelant les précédents connus par Snapchat et Meitu.

C’est un secret de polichinelle : les filtres n’ont pas seulement le vent en poupe pour leur côté créatif ou ludique, mais aussi parce qu’ils permettent, sans passer par la case retouche et d’un simple glissement de doigt, de gommer les petits défauts d’un visage immortalisé en mode selfie. À tel point qu’une application, FaceApp, en a fait sa marque de fabrique, proposant à ses utilisateurs de changer de visage grâce à la magie de la retouche automatique.

À l’aide d’un réseau de neurones (neural network), FaceApp modifie en effet les caractéristiques d’un visage pour donner l’impression que celui-ci a rajeuni ou a, au contraire, pris quelques rides.

Le filtre « hot » en cause

Or, parmi les filtres proposés sur l’application, l’un d’eux s’est rapidement fait remarquer pour sa facheuse tendance à éclaircir la peau des personnes immortalisées : le filtre « hot », qui prétend rendre les gens plus sexys. Certains utilisateurs ont pu constater que l’application « blanchissait » de manière notable leur visage.

Interrogé par The Guardian, le créateur et PDG de FaceApp, Yaroslav Goncharov, a présenté ses excuses à la suite des accusations de racisme et whitewashing de la part des internautes à l’encontre de son application. Il explique que cet effet est la manifestation d’un effet secondaire du réseau neuronal intégré à l’application. « Nous sommes profondément désolés pour ce problème, incontestablement sérieux. Il s’agit d’un regrettable effet secondaire du réseau neuronal sous-jacent, causé par des biais dans l’entraînement du programme, un comportement qui n’était pas prévu », s’est-il excusé.

Un effet secondaire du réseau neuronal, causé par des biais dans le programme

La fonctionnalité qui cristallise les accusations de racisme n’a néanmoins pas été supprimée de l’application. Elle a été renomée « étincelle » (spark) afin d’ « exclure que toute connotation positive lui soit associée », a complété Yaroslav Goncharov, avant d’ajouter, « nous travaillons également sur une solution complète, qui devrait arriver bientôt. »

Ce n’est pas la première fois qu’une application utilisant des filtres et autres artifices pour modifier une photographie, et notamment un visage, flirtent avec la frontière du racisme et du whitewashing, déclenchant à juste titre les critiques de leurs utilisateurs.

Blancheur immaculée sur Meitu, maladresses sur Snapchat

Début 2017, l’application Meitu, déjà populaire en Asie, se frayait un chemin en Europe et outre-Atlantique. Plutôt indiscrète à l’égard des informations personnelles de ses utilisateurs, Meitu propose une série de filtres présentant la particularité de gommer les défauts du visage, d’unifier le teint… quitte à le faire paraître extrêmement clair (voir livide).

L’application Snapchat n’est pas non plus exempte de critiques : après avoir proposé un filtre Bob Marley qui rendait « noir » les personnes qui l’utilisaient, le réseau social a récidivé en proposant un filtre pour avoir l’air « asiatique » à coup de modifications corporelles grossières et caricaturales.

Snapchat

Contrairement à Meitu et Snapchat, FaceApp utilise une technologie d’apprentissage pour altérer la photographie en elle-même. Or, les effets du machine learning ne sont pas anodins : selon une étude réalisée récemment par des chercheurs en informatique, les intelligences artificielles seraient à même de reproduire des stéréotypes racistes et sexistes. Dans ce cas précis, le biais vient du langage étudié par les machines, qui est celui des êtres humains. Or, les mots et la sémantique sont vecteurs et porteurs, que nous en ayons conscience ou non, de stéréotypes et de biais.

Le machine learning reproduit les préjugés humains

Pour FaceApp, le biais semble ainsi s’appliquer, non plus aux mots, mais aux images. Comme le notent nos confrères du Monde, un programme tel que celui développé par Yaroslav Goncharov suppose d’avoir été entrainé au préalable pour être capable d’analyser une multitude de visages.

Le fondateur de l’application le reconnaît lui-même, ce sont justement ces clichés, qui ont servi de base au machine learning, qui ont certainement induit un biais raciste dans le filtre incriminé : les images considérées comme « belles » par le programme représentaient en majorité des personnes blanches. C’est exactement ce qu’il s’est passé lors du « concours de beauté » pendant lequel une IA a été juge. Le réseau neuronal a pu en déduire que pour appliquer un filtre « hot », l’un des critères de la beauté était — au même titre que de gommer les imperfections du teint — de rendre la peau plus claire.

La façon dont les technologies se montrent ainsi capables de reproduire des préjugés hérités des êtres humains relance les questions autour de la nécessité d’un encadrement éthique du développement de l’intelligence artificielle.


Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.