Le Washington Post a pu avoir accès à des documents montrant l'étendue des biais de l'algorithme de détection des contenus haineux utilisé par Facebook. Des biais qui n'auraient que partiellement été corrigés.

En 2019, des chercheurs de Facebook, qui travaillaient sur un projet surnommé le « pire du pire », ont proposé un changement majeur sur l’algorithme de détection de discours haineux. Le changement visait à mieux supprimer les insultes et propos haineux contre les personnes racisées, les personnes d’origine juive, les personnes LGBT, et les musulmans.

Mais lorsque leur proposition a été examinée par Joel Kaplan, le vice-président de Facebook en charge des politiques publiques, les changements les plus importants ont été rejetés. La raison invoquée, explique le Washington Post, était que ces changements auraient pu «  ne pas plaire aux partenaires conservateurs » de Facebook.

Depuis des mois et le leak de documents de Frances Haugen, Facebook est dans la tourmente. De nombreuses enquêtes sur le réseaux social, ont permis de révéler que les outils de modération ne marchaient pas toujours dans des langues autres que l’anglais, ou encore qu’Instagram est nocif pour les utilisateurs les plus jeunes. Dans une nouvelle enquête sur le réseau social du groupe Facebook, rebaptisé Meta, le Washington Post s’est penché sur le fonctionnement de l’algorithme de modération, dont l’un des rôles est de détecter et de supprimer automatiquement les propos injurieux et les discours de haine. Or, comme les journalistes l’ont découvert, l’algorithme ne protège pas tout le monde de la même façon — et des propositions pour améliorer la situation ont été rejetées.

L’algorithme de modération de Facebook ne protège pas tout le monde de la même façon

L’algorithme de modération chargé de la suppression des contenus haineux a été introduit sur la plateforme en 2015, explique le Washington Post. Son rôle est, spécifiquement, de supprimer les publications les plus injurieuses et dangereuses de Facebook avant même que d’autres utilisateurs ne les voient. En 2019, Facebook déclarait ainsi que le programme supprimait plus de 80 % des discours de haine.

Mais cette statistique ne reflète pas la réalité, ont découvert les chercheurs de Facebook. Selon eux, l’algorithme détecte plus les commentaires dénigrants envers les personnes blanches que les attaques envers n’importe quel autre groupe de personnes. Un document, daté d’avril 2020, aurait conclu que 90 % des contenus supprimés par l’algorithme auraient été des commentaires de « dédain » envers les personnes blanches et les hommes.

Les locaux de Facebook // Source : Greg Bulla / Unsplash

Le Washington Post explique que le programme aurait systématiquement laissé en ligne les commentaires les plus racistes. C’est pourtant ce genre de commentaire qui aurait été le plus signalé par les utilisateurs : en 2019, 55 % des signalements visaient des publications haineuses sur les personnes racisées, les musulmans, les personnes LGBT ou les personnes d’origines juives.

Pour des partenaires de Facebook, « la transphobie relève de la liberté d’expression »

Devant ces résultats, les chercheurs auraient demandé au management de Facebook un grand changement dans la façon dont l’algorithme supprimait les publications. Mais, selon deux personnes que le Washington Post a interrogées, Joel Kaplan, l’un des vice-présidents de Facebook, aurait jugé les mesures proposées par les chercheurs trop extrêmes. Le vice-président aurait eu peur que le nouveau système protège plus certaines minorités que d’autres, et surtout, que les « partenaires conservateurs  » de Facebook réagissent de manière hostile à ces changements. Ces partenaires conservateurs estimeraient en effet, selon des documents consultés par le Washington Post, que « la transphobie relève de la liberté d’expression ».

Les modifications finalement adoptées par la direction de Facebook n’auraient donc pas changé grand-chose au niveau de la protection des personnes racisées sur le réseau social. Les minorités auraient même été plus à même de voir des publications racistes sur le site, selon des interlocuteurs du Washington Post.

Facebook juge à l’inverse que le projet et les changements qu’il a apportés ont été un succès. « Le projet nous a permis de voir quels types de discours haineux nous pouvions repérer  », a expliqué au Washington Post, Andy Stone, le porte-parole de Facebook. Selon l’entreprise, des progrès auraient également été réalisés, et des initiatives portées par le groupe de chercheurs mises en oeuvre. Le porte-parole a notamment mis en avant la suppression de groupes de nationalistes blancs, et de contenus promouvant des stéréotypes raciaux — tels que les black faces, ou encore les publications disant que les personnes juives contrôlent les médias.

Partager sur les réseaux sociaux

La suite en vidéo