Employée par Facebook en 2016, une ancienne modératrice raconte qu’elle devait examiner des milliers de posts dérangeants par jour. Exposée quotidiennement à des publications violentes, elle explique s’être désensibilisée face à ces contenus.

Sarah Katz est une ancienne employée de Facebook. Le 9 juillet 2018, Business Insider a rapporté son témoignage au sujet des conditions dans lesquelles elle effectuait son travail pour le réseau social, à savoir la modération des publications. Évoquant une pression quotidienne, l’ancienne modératrice explique qu’elle devait relire et surveiller des milliers de contenus chaque jours.

Sarah Katz, âgée de 27 ans, explique qu’elle a travaillé pendant huit mois au siège social de Facebook, à Menlo Park (Californie) en 2016. En tant que modératrice, c’est à elle qu’il revenait de déterminer si les publications signalées au réseau social étaient effectivement contraires au règlement.

Des « tickets » violents par milliers

Ces publications à vérifier — l’ancienne modératrice précise qu’elles portaient le nom de « tickets » en interne — étaient particulièrement nombreuses : chaque jour, Sarah Katz devait en examiner environ 8 000. Pour l’ex-employée, cela revenait à regarder des contenus potentiellement violents ou offensants toutes les 10 secondes environ, avant de prendre une décision concernant chacun de ces posts.

L'application Facebook sur iPhone. // Source : Quote Catalog

L'application Facebook sur iPhone.

Source : Quote Catalog

Par ailleurs, le témoignage de l’ancienne employée évoque le document que tous les modérateurs de la plateforme doivent signer lors de leur prise de fonction. Dans ce document de renonciation, ils reconnaissent qu’ils doivent regarder des contenus potentiellement dérangeants. Facebook se protège ainsi de toute action légale que les modératrices et modérateurs pourraient songer à entamer contre leur employeur.

Le document signé par Sarah Katz mentionne notamment que les modérateurs sont exposés à des contenus qui « peuvent être offensants pour certaines personnes », incluant des images à caractère pornographique. Les modérateurs sont tenus d’ « informer promptement » le réseau social s’ils « ne souhaitent pas continuer » à remplir cette tâche.

Chaque modérateur signe un document de renonciation

« Facebook, a des milliards d’utilisateurs, et les gens ne savent pas comment utiliser la plateforme correctement, il y avait donc beaucoup de pornographie, de bestialité et de violence graphique. Il y avait beaucoup de contenus que vous ne vous attendriez pas à voir partagé sur Facebook », a expliqué l’ancienne employée, ajoutant que la monotonie de son travail l’a conduite à devenir moins sensible à ces contenus violents.

L’an dernier, 4 500 personnes étaient chargées, tout comme Sarah Katz, de la modération au sein de Facebook. En mai 2017, la plateforme avait annoncé qu’elle recruterait 3 000 modératrices et modérateurs supplémentaires, ce qui avait soulevé la question de savoir si ces recrutements parviendraient à endiguer les manifestations de violence sur le site. Depuis peu, un algorithme fait également un gros travail en amont pour éviter d’exposer des humains à des images violentes « connues ».

En mai 2018, Facebook a annoncé avoir supprimé plus de 25 millions de contenus haineux, de spams ou de publications montrant de la nudité. Pourtant, ces nombres ne masquent pas les difficultés rencontrées par le site en matière de modération. Facebook a encore récemment été mis en cause lorsque le réseau social a identifié, à tort, la Déclaration d’indépendance des États-Unis comme un discours haineux.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !