Interpellé par l’organisme à but non lucratif ProPublica, Facebook a reconnu des erreurs dans sa politique de modération. Sur un total de presque 50 publications, le réseau social a admis qu’une vingtaine n’avaient pas été traitées correctement.

En 2017, l’enjeu de la modération est devenu plus crucial que jamais pour Facebook. Au début de l’année, Mark Zuckerberg a fait état de sa vision pour le futur du réseau social, dont les règles de modération, souvent décriées, ont été dévoilées au grand jour par le quotidien britannique The Guardian quelques mois plus tard.

Cette année, le réseau social a franchi la barre éminemment symbolique des 2 milliards d’utilisateurs. Ce chiffre paraît bien vertigineux à côté des 7 500 employés du site qui se consacrent — avec l’aide d’algorithmes — à la modération des contenus publiés sur la plateforme. Le site ProPublica, qui a déjà interpellé Facebook au sujet de la pratique du ciblage publicitaire, vient d’enfoncer le clou en soulignant les limites des efforts de modération sur le réseau social.

Dans 22 cas, les évaluateurs ont fait une erreur

L’organisme à but non lucratif a adressé au réseau social un ensemble de 49 contenus publiés sur Facebook, et présentant dans leur majorité des propos à caractère haineux.

« Dans 22 cas, Facebook a déclaré que ses évaluateurs avaient fait une erreur. Dans 19 autres, il a défendu les décisions prises. Dans 6 cas, Facebook a déclaré que le contenu enfreignait ses règles, mais que ses évaluateurs ne l’avaient pas classé dans une catégorie ou l’autre car les utilisateurs ne l’avaient pas signalé correctement, ou parce que leurs auteurs les avaient supprimés », écrit ProPublica.

Facebook en Europe

« Nous devons faire mieux »

Interpellé par l’organisation, Facebook a présenté ses excuses pour les erreurs de modération ainsi relevées. « Nous sommes désolés pour les erreurs que nous avons commises — elles ne sont pas le reflet de la communauté que nous voulons aider à construire, a répondu Justin Osofsky, vice-président de Facebook. Nous devons faire mieux. »

Le vice-président a ajouté que le réseau social prévoit de doubler ses effectifs consacrés  à la sécurité sur Facebook : en 2018, selon Justin Osofsky, 20 000 personnes seront au total ainsi consacrées à cette tâche.

Le représentant a enfin tenu à rappeler que Facebook supprime environ 66 000 messages considérés comme haineux chaque semaine. « Nos règles autorisent des contenus qui peuvent être sujets à controverse, et parfois être désagréables, mais elles ne dépassent pas la limite des discours de haine. Cela peut inclure la critique de personnalités publiques, de religions, de professions ou d’idéologies politiques. »

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+

Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.