Depuis les premiers articles du Wall Street Journal au mois de septembre sur Facebook, les révélations sur le plus grand réseau social au monde continuent. Quelles sont les informations à retenir ?

En septembre, une série d’articles du Wall Street Journal sur Facebook secouait le réseau social. Intitulées les « Facebook Files », ces enquêtes détaillaient, grâce à des milliers de documents internes fournis par Frances Haugen, les pratiques du géant. Et la liste de ses problèmes est très longue : les célébrités sur la plateforme auraient droit à une modération plus souple, Instagram serait très nocif pour ses utilisateurs les plus jeunes (et en aurait conscience), Facebook aurait avantagé les contenus violents, et aurait également aidé à la propagation des fake news sur le Covid-19.

Mais toutes les révélations ne sont pas finies : après la publication des premiers articles, Frances Haugen a partagé une quantité incroyable de documents avec un consortium de journalistes. Et les nouvelles découvertes des médias du monde entier ont commencé à être publiées cette semaine. Voici ce qu’il faut retenir de toutes ces nouveautés.

1. La modération dans d’autres langues que l’anglais ne fonctionne pas bien

Pour des dizaines de langues, les outils de modérations mis en place par Facebook ne seraient pas suffisants. Outre le fait que l’interface de signalement serait parfois très mal traduite dans certaines langues (c’est notamment le cas pour le dari et le pachtou, deux des principales langues d’Afghanistan), les outils mis en place pour signaler les publications violentes et pour protéger les internautes ne seraient pas à la hauteur pour un certain nombre de pays.

Le Monde prend ainsi l’exemple de l’Éthiopie, où le pouvoir central est en guerre contre une faction rebelle, et où Facebook est accusé d’avoir attisé le conflit dans le pays en ne modérant pas assez bien les contenus. Le problème aurait été le même en Birmanie, lors des violences de 2018 : Facebook n’aurait eu, à ce moment-là, que deux modérateurs parlant birman. Le problème serait encore plus criant pour l’arabe : la modération dans cette langue est rendue très complexe par le nombre élevé de dialectes locaux. Alors que l’arabe est la troisième langue la plus parlée sur la plateforme, le nombre de modérateurs ne suivrait pas le rythme des publications. Plus grave : « pour certains pays, Facebook ne dispose tout simplement pas d’experts capables de comprendre la langue », explique Le Monde, et la situation dans des pays comme le Yémen ou l’Irak serait particulièrement dramatique.

2. Facebook déciderait de quels pays reçoivent le plus d’aide

Facebook aurait secrètement mis en place un système de listes afin de définir dans quels pays la modération serait renforcée en amont d’élections locales. C’est ce qu’écrit The Verge, dans un long article qui décrit une organisation par « échelon » des pays : plus de moyens pour la modération auraient été alloués dans les pays que le réseau social estimait prioritaires.

Cela aurait notamment été le cas pour les États-Unis, le Brésil et l’Inde : les trois pays sont décrits par The Verge comme faisant partie de l’échelon zéro, le plus prioritaire.  Facebook aurait installé pour ces pays des « salles de crise », qui auraient permis de surveiller de très près la situation sur le réseau social. Facebook aurait de plus constamment tenu au courant les autorités locales en cas de problème. L’échelon suivant, le 1, aurait concerné l’Allemagne, l’Indonésie, l’Iran, Israël, et l’Italie. Les équipes de ces pays-là auraient eu accès à certaines des ressources allouées aux pays de l’échelon zéro, mais avec un système d’alerte mis en place plus tardivement, au moment des élections.

Mark Zuckerberg // Source : Wikimedia Commons

Vingt-deux pays auraient fait partie de l’échelon 2, selon The Verge (qui ne donne pas de liste plus précise), et les modérateurs de ces pays auraient dû faire avec encore moins de moyens. Enfin, le reste du monde ferait partie de l’échelon 3, où l’action de Facebook relèverait du strict minimum : le réseau social n’examinerait des contenus liés à des élections que s’ils sont signalés par des modérateurs. Il n’est pas indiqué dans l’article dans quel échelon la France aurait été rangée.

Ce système poserait évidemment des problèmes importants : Facebook aurait décidé de manière arbitraire quels pays avaient besoin de plus de moyens, en laissant complètement de côté certaines régions vulnérables. Certains pays qui en aurait grandement eu besoin n’auraient jamais reçu de ressources supplémentaires de la part de Facebook : c’est notamment le cas de l’Éthiopie, écrit The Verge, pour qui aucune salle de crise n’a jamais été ouverte, et où aucun partenariat pour faire du fact-checking n’a été mis en place.

3. Facebook n’a pas su gérer les événements du 6 janvier

Au moment des élections américaines de novembre 2020, des mesures avaient déjà été mises en place par Facebook pour tenter de limiter le plus possible l’impact des fake news sur le scrutin. Des mesures d’urgence auraient également été préparées, mais n’avaient pas tout de suite été mises en place. Et, lors de l’invasion du Capitole par les partisans de Donald Trump le 6 janvier 2021, ces mesures n’auraient pas été appliquées à temps, écrivent Politico et le New York Times.

Les journaux expliquent qu’en interne, des ingénieurs du réseau social auraient essayé de faire en sorte de limiter le plus possible les paroles de Donald Trump, mais que les mesures d’urgence n’auraient pas pu être appliquées rapidement à cause de blocages administratifs et techniques. Des sources internes décrivent également une préparation insuffisante, notamment pour les contenus violents qui n’auraient pas à proprement parler été des fake news — exactement le genre de contenu qui a permis aux émeutes du 6 janvier d’éclater.

4. L’algorithme de Facebook échapperait au contrôle des ingénieurs

L’algorithme de la plateforme serait devenu d’une complexité telle qu’il échapperait parfois aux prédictions des ingénieurs qui ont participé à son développement. Le Monde révèle que des documents qu’il a pu examiner suggèrent qu’à de nombreux moments, les ingénieurs seraient dépassés par les décisions et les actions de l’algorithme qui gère la plateforme.

Cela serait notamment le cas pour l’algorithme chargé de l’affichage des contenus : ceux qui s’affichent en premier sur le fil d’actualité des utilisateurs sont les mieux notés, la note étant attribuée grâce à un calcul complexe où la popularité de la page à l’origine de la publication et le nombre de likes que ce dernier a reçu sont pris en compte. Or, certaines fake news auraient reçu un tel taux d’engagement qu’elles auraient reçu des scores absolument imprévisibles : certains contenus auraient dépassé un score d’un milliard de points, écrit Le Monde.

Or, l’algorithme chargé de modérer les propos les plus extrêmes serait incapable de faire disparaître de telles publications : même en baissant leur score, ces posts resteraient les plus populaires. « Certains de ces contenus resteraient en tête même si on appliquait une baisse de leur score de 90 % », expliquait ainsi l’auteur d’un document examiné par Le Monde. Résultat, cet algorithme imprévisible aurait fait de Facebook un énorme réseau incontrôlable.

5. Facebook n’a pas su réagir aux fake news dans les commentaires

La crise sanitaire et la pandémie de Covid-19 ont entraîné un nombre incroyable de fake news. Mais c’est bien les vaccins qui ont été la cible des théories du complot et des attaques les plus nombreuses. Et, comme le montrent les documents examinés par The Verge, Facebook n’aurait pas su anticiper et correctement lutter contre cette explosion de fake news.

Parmi les angles morts de la plateforme, les commentaires sous les publications auraient été une source très importante de désinformation — notamment le cas de commentaires très négatifs sur les vaccins sous des publications promouvant la vaccination  — que Facebook aurait été incapable de contrôler. The Verge a notamment pu consulter un mémo interne, qui souligne l’absence de plans à leur propos. «  Il n’y avait aucun projet pour développer une infrastructure pour modérer les commentaires, que ce soit des signalements, ou même un système de classification de ces fake news dans les commentaires », explique The Verge. Les documents montrent que Facebook aurait cependant été au courant du problème, mais que la plateforme l’aurait sous-estimé.

6. Apple a menacé de supprimer Facebook de l’App Store

Le 23 octobre 2019, Apple aurait menacé de supprimer les applications de Facebook et d’Instagram de son App Store, explique The Verge. La décision d’Apple se serait basée sur une enquête de la BBC parue en 2019, dans laquelle le journal décrivait des opérations de traite d’humains se déroulant sur les plateformes. Par messagerie, des travailleurs et domestiques auraient été vendus au plus offrant, et leurs propriétaires auraient partagé des moyens de les torturer, comme le fait de leur confisquer leur passeport.

Source : Nino Barbey pour Numerama

Les documents, examinés par The Verge, montrent que Facebook aurait été au courant de ces pratiques gravissimes, mais qu’il les aurait largement sous-estimées. Ce n’est que lorsqu’Apple aurait menacé de retirer les applications de sa plateforme que Facebook aurait véritablement commencé à agir. Les modérateurs auraient à ce moment-là fouillé l’intégralité de la plateforme à la recherche des hashtags mentionnés dans l’enquête de la BBC, et auraient en tout supprimé plus de 1000 profils et 100 000 contenus. Apple aurait été satisfait des mesures prises par Facebook, et l’incident aurait ainsi été clos. « Le retrait de nos applications de l’App Store aurait été un vrai coup dur pour notre business », est-il écrit dans le rapport interne rédigé après coup, examiné par The Verge.

7. Mark Zuckerberg a bloqué beaucoup d’initiatives

Les décisions du CEO de Facebook, Mark Zuckerberg, sont abondamment critiquées dans l’article du Washington Post. Le journal le décrit comme quelqu’un qui aurait, à plusieurs reprises, choisi la croissance de son entreprise au lieu de la démocratie et de la sécurité. Le journal cite notamment l’exemple du Vietnam, qui, en 2020, aurait demandé à Facebook de se conformer à une nouvelle loi, qui punissait beaucoup plus sévèrement les commentaires anti-gouvernement sur Internet, et particulièrement sur Facebook. Et Mark Zuckerberg aurait, personnellement, décidé d’accéder aux demandes du gouvernement.

Mark Zuckerberg est décrit dans l’article du Washington Post comme étant obsédé par les chiffres et les performances du réseau social, et il contrôlerait lui-même énormément de décisions prises sur la plateforme. Il aurait ainsi décidé de conserver les publications de Donald Trump incitant à la violence lors des manifestations suivant la mort de Georges Floyd aux États-Unis en 2020, et aurait pris la décision de bloquer une proposition dont le but était de limiter la propagation de fake news au début de la pandémie de Covid-19.

8. Facebook ne sait pas exactement combien d’utilisateurs sont sur son réseau social

Combien d’utilisateurs a Facebook ? C’est une question à laquelle, selon le Wall Street Journal, Facebook lui-même aurait du mal à répondre. Cela peut sembler absurde de prime abord, mais le réseau social aurait en fait beaucoup de mal à réguler le problème de « doubles comptes ». En effet, sur la plateforme, on ne peut officiellement avoir qu’un seul profil, contrairement à d’autres réseaux sociaux tels que Twitter ou même Instagram.

Néanmoins, Facebook est confronté très directement au problème : une étude interne parue au printemps 2021, dont le Wall Street Journal a pu examiner une copie, a trouvé que les « comptes multiples » seraient « très prévalents » parmi les nouveaux inscrits sur la plateforme. Les « comptes multiples », c’est-à-dire un compte créé par un utilisateur de Facebook ayant déjà un ou plusieurs profils, représenteraient entre 32 % et 56 % des nouveaux comptes créés sur le site. Encore plus impressionnant, Facebook estimait dans un récent rapport sur la sécurité interne que 11 % de ses utilisateurs globaux seraient des comptes multiples.

Ce problème, bien que cocasse, a cependant des conséquences moins graves sur la société — les seules entités profondément dérangées par ce phénomène sont les entreprises ayant recours à la publicité à très large échelle sur Facebook, et qui prennent en considération le fait que le nombre exact d’utilisateurs n’est pas connu. Mais il convient cependant d’aborder ce problème, qui est encore une fois révélateur du fait que Facebook n’est pas aussi encadré que les dirigeants du réseau social souhaitent le montrer.

À noter que Facebook a fermement nié les éléments exposés dans les longues enquêtes du Wall Street Journal.  Le groupe n’a, pour le moment, pas officiellement réagi ni publié de communiqué de presse, depuis la parution des nouveaux articles sur son fonctionnement. Nous mettrons à jour cet article si la société de Mark Zuckerberg nous apporte des éléments de réponse nouveaux, en réaction aux révélations plus récentes.

9. Les fermes à trolls rencontraient un succès incroyable

Les fermes à trolls constitueraient une énorme partie de l’activité de toutes les pages Facebook, et ce partout dans le monde. C’est Le Monde qui rapporte l’information, et qui précise également que ces pages viseraient tout spécialement les groupes religieux ou les Afro-Américains.

Les fermes à trolls sont des pages cherchant avant tout à publier des contenus viraux : leur but est souvent financier, parfois politique. Elles peuvent partager un grand nombre de contenus, qu’il s’agisse de vidéos, de photos, de mèmes ou d’articles, et ce sur tous les sujets. La plupart sont gérées depuis des pays des Balkans, comme le Kosovo ou l’Albanie. Leur existence n’est pas une surprise : on sait que ces fermes ont joué un rôle important lors de la campagne américaine de 2016, qui avait opposé Hillary Clinton et Donald Trump.

Et c’est justement parce que leur existence est connue depuis longtemps que leur popularité est particulièrement troublante : selon des documents examinés par Le Monde, à la fin de 2019, il existait près de 15 000 de ces fermes à trolls sur Facebook, et « leur contenu était vu au moins une fois par 360 millions de personnes dans le monde par semaine, dont 100 millions aux seuls États-Unis ». Facebook aurait depuis fermé une grande partie de ces pages, mais pas toutes : Le Monde a  repéré des fermes à trolls encore actives aujourd’hui, dont l’une compte plus de 1,8 million de likes sur sa page.

Partager sur les réseaux sociaux

La suite en vidéo