Interpellé par l'organisme à but non lucratif ProPublica, Facebook a reconnu des erreurs dans sa politique de modération. Sur un total de presque 50 publications, le réseau social a admis qu'une vingtaine n'avaient pas été traitées correctement.

En 2017, l’enjeu de la modération est devenu plus crucial que jamais pour Facebook. Au début de l’année, Mark Zuckerberg a fait état de sa vision pour le futur du réseau social, dont les règles de modération, souvent décriées, ont été dévoilées au grand jour par le quotidien britannique The Guardian quelques mois plus tard.

Cette année, le réseau social a franchi la barre éminemment symbolique des 2 milliards d’utilisateurs. Ce chiffre paraît bien vertigineux à côté des 7 500 employés du site qui se consacrent — avec l’aide d’algorithmes — à la modération des contenus publiés sur la plateforme. Le site ProPublica, qui a déjà interpellé Facebook au sujet de la pratique du ciblage publicitaire, vient d’enfoncer le clou en soulignant les limites des efforts de modération sur le réseau social.

Dans 22 cas, les évaluateurs ont fait une erreur

L’organisme à but non lucratif a adressé au réseau social un ensemble de 49 contenus publiés sur Facebook, et présentant dans leur majorité des propos à caractère haineux.

« Dans 22 cas, Facebook a déclaré que ses évaluateurs avaient fait une erreur. Dans 19 autres, il a défendu les décisions prises. Dans 6 cas, Facebook a déclaré que le contenu enfreignait ses règles, mais que ses évaluateurs ne l’avaient pas classé dans une catégorie ou l’autre car les utilisateurs ne l’avaient pas signalé correctement, ou parce que leurs auteurs les avaient supprimés », écrit ProPublica.

« Nous devons faire mieux »

Interpellé par l’organisation, Facebook a présenté ses excuses pour les erreurs de modération ainsi relevées. « Nous sommes désolés pour les erreurs que nous avons commises — elles ne sont pas le reflet de la communauté que nous voulons aider à construire, a répondu Justin Osofsky, vice-président de Facebook. Nous devons faire mieux. »

Le vice-président a ajouté que le réseau social prévoit de doubler ses effectifs consacrés  à la sécurité sur Facebook : en 2018, selon Justin Osofsky, 20 000 personnes seront au total ainsi consacrées à cette tâche.

Le représentant a enfin tenu à rappeler que Facebook supprime environ 66 000 messages considérés comme haineux chaque semaine. « Nos règles autorisent des contenus qui peuvent être sujets à controverse, et parfois être désagréables, mais elles ne dépassent pas la limite des discours de haine. Cela peut inclure la critique de personnalités publiques, de religions, de professions ou d’idéologies politiques. »

Partager sur les réseaux sociaux