Une enquête du Wall Street Journal met en lumière l'existence d'une modération accommodante pour des comptes de stars. Le réseau social justifie ce programme en disant qu’il sert à éviter des erreurs. Mais des dérives ont été observées, car Facebook pourrait se montrer plus conciliant qu’envers d’autres de ses membres.

« Selon que vous serez puissant ou misérable, les jugements de cour vous rendront blanc ou noir. » Ce célèbre extrait d’une fable de La Fontaine semble trouver aujourd’hui un écho dans la manière dont Facebook applique son règlement auprès de sa communauté. C’est en tout cas ce qui ressort d’une enquête du Wall Street Journal, publiée dans ses colonnes le 13 septembre 2021.

Le quotidien économique américain affirme en effet, sur la base de documents internes qu’il a pu consulter, que le réseau social fait profiter à une petite part de son public d’un traitement différentié sur la modération des contenus. Ces privilèges s’appliquent à des internautes bénéficiant d’un certain statut médiatique — en somme, à des célébrités, qu’il s’agisse de la politique, du show-business, du sport ou d’Internet.

5,8 millions de profils privilégiés

Ce programme qui bénéficie aux stars est appelé « Crosscheck » ou « XCheck » et, selon des données datées de 2020, il aurait concerné environ 5,8 millions de profils — un nombre considérable pris tel quel, mais qui demeure modeste face à la totalité des internautes qui peuplent le site communautaire. Rappelons qu’en 2017, Facebook dépassait la barre des 2 milliards d’utilisateurs.

Les membres figurant dans XCheck ne sont pas exemptés de toute modération, mais ils ont droit à plus de considération. En cas de signalement les visant, les cas sont traités avec bien plus d’attention, plus de temps parfois, et sont vérifiés à plusieurs reprises — d’où le nom de « cross check », qui veut dire « vérification croisée ». Des égards auxquels n’a pas droit la majorité des membres.

Ces contrôles beaucoup plus pointilleux en fonction de la notoriété de la personne n’ont qu’un but : éviter à Facebook de devenir la cible d’une tempête médiatique provoquée par un « VIP » — par exemple un ou une responsable politique dont la publication est discutable et qui crierait à la censure en cas de retrait, ou bien une vedette du web pouvant lancer un bad buzz en mobilisant sa communauté.

Le footballeur Neymar est cité comme l’une des personnalités couvertes par le programme XCheck. // Source : Wikimedia Commons/CC/Antoine Dellenbach

En somme, le programme XCheck consisterait à éviter les tracas et l’attention des médias en se montrant plus souple envers celles et ceux ayant un certain rang dans la société. Ce dispositif concernerait non seulement le site communautaire, mais aussi sa célèbre filiale Instagram, très prisée des personnalités du monde du spectacle et du sport, mais aussi des influenceurs et des influenceuses.

Le fait est que ce dispositif a parfois été beaucoup trop laxiste ou lent à agir, au point de laisser des contenus qui auraient été normalement supprimés, y compris plus rapidement.

Deux exemples sont donnés par nos confrères : le premier concerne le footballeur Neymar, qui a été accusé de viol par une femme dont il a publié des photos nues. Les photos ont fini par être supprimées par Facebook, mais elles ont pu rester en ligne assez longtemps pour être vues par ses fans. L’intéressé est suivi par des dizaines de millions de personnes à travers le monde.

Le second ne cite personne en particulier, mais relève que des affirmations jugées fausses dans le cadre des programmes de vérification des faits — notamment via des partenariats avec la presse — ont été laissées sur les comptes du programme XCheck. Des exemples : les vaccins sont mortels, Hillary Clinton est liée à un réseau pédophile ou encore Donald Trump aurait qualifié les réfugiés d’animaux.

Facebook défend son programme

Les révélations autour de XCheck ont conduit Facebook à dépêcher un porte-parole sur Twitter pour souligner l’ancienneté du programme, qui avait été évoqué publiquement en 2018 dans les pages du réseau social. Il a également justifié son intérêt et contesté certains pans de l’article du Wall Street Journal. L’intéressé a aussi suggéré qu’il est sans doute illusoire d’espérer de Facebook une modération pure et parfaite.

« Il n’y a pas deux systèmes de justice, c’est une tentative de protection contre les erreurs », a ainsi écrit Andy Stone sur Twitter. « Au centre de cette histoire se trouve la propre analyse de Facebook selon laquelle nous devons améliorer le programme. Nous savons que notre application des règles n’est pas parfaite et qu’il y a des compromis à faire entre la vitesse et la précision », a-t-il admis.

« Il n’y a pas deux systèmes de justice, c’est une tentative de protection contre les erreurs »

Ces vérifications croisées, a-t-il poursuivi, en rappelant les objectifs affichés quand ce dispositif a été présenté il y a trois ans, visent des contenus publiés par des célébrités, des gouvernements ou des pages où ont été commises des erreurs par le passé. Elles bénéficient aussi aux médias, afin que certains contenus ne soient pas retirés ou laissés par erreur.

Andy Stone a conclu son intervention en faisant remarquer que l’article du Wall Street Journal s’appuie sur des documents de Facebook soulignant la nécessité de changements. Or, ceux-ci « sont en fait déjà en cours au sein de l’entreprise. Nous avons de nouvelles équipes, de nouvelles ressources et une refonte du processus », a-t-il affirmé. En somme, les critiques seraient presque déjà datées.

Reste toutefois une problématique : quid de la modération pour les autres, qui n’est pas « premium » ? Dans l’article du Wall Street Journal, il est rapporté qu’en 2018, le fondateur du réseau social, Mark Zuckerberg, estimait à 10 % les erreurs du site dans ses décisions de retrait de contenu. Un cas sur dix : c’est considérable pour un tel site. Surtout qu’il était dit que les internautes pourraient ne jamais être informés de la règle qu’ils avaient entravée ou ne jamais avoir la possibilité de faire appel. Les choses changent néanmoins, avec de nouveaux mécanismes, mais sans doute pas assez vite.

Partager sur les réseaux sociaux

La suite en vidéo