En 2018, la quasi-totalité des médias présents sur Facebook a connu une subite et impressionnante chute d’audience. Du Monde à Buzzfeed en passant par le quotidien finlandais Helsingin Sanomat, tous ont subi les mêmes changements, parfois brutaux : la page Facebook du Monde a vu son trafic baisser de 30%.
Cette chute n’est pas arrivée par hasard : elle était due à un changement dans l’algorithme de Facebook, chargé de sélectionner le contenu du newsfeed des utilisateurs. Ce newsfeed, ou fil d’actualité, est la partie du site où sont affichées les publications récentes, et les photos partagées par les pages likées ou bien par les proches des utilisateurs. Or, le newsfeed est la partie de Facebook où ses utilisateurs passent le plus de temps. Ce changement d’algorithme a profondément transformé le réseau social, faisant de Facebook un lieu où « les fake news, la toxicité et les contenus violents étaient excessivement partagés », selon des chercheurs de Facebook, dont le Wall Street Journal a pu lire les notes.
Des contenus « moins qualitatifs »
Le journal américain a publié le nouveau volet de ses Facebook Files, une série d’enquêtes sur le réseau social. Après avoir parlé du traitement de faveur que reçoivent les stars de la plateforme en termes de modération, et de la toxicité d’Instagram pour ses utilisateurs les plus jeunes, le Wall Street Journal explique dans son nouvel article les mécanismes du fil d’actualité de Facebook.
Les journalistes ont eu accès à des mémos, des mails, des notes et de très nombreux documents échangés en interne, au cours de plusieurs années, qui détaillent l’évolution de l’algorithme du newsfeed. Au cours des années, Facebook a réalisé de nombreuses petites mises à jour sur le fil d’actualité. Mais la mise à jour de 2018 est, de loin, l’une des plus importantes. L’un des principaux changements du fil a mené à mettre plus en avant les publications d’amis, et moins celles de médias.
Le but de ce changement était de mettre en avant les publications les plus susceptibles de susciter de l’engagement, plutôt que les contenus d’entreprises qui auraient favorisé un comportement plus passif. Facebook avait annoncé à l’époque qu’un algorithme allait « déterminer les publications autour desquelles vous êtes le plus susceptibles d’interagir avec vos amis, et les faire apparaître plus haut dans [le] fil d’actualité ».
Or, cet algorithme fonctionne de telle façon que les contenus les plus négatifs étaient exagérément mis en avant. Les chercheurs travaillant pour Facebook ont, à plusieurs reprises, critiqué le fait que le nouvel algorithme proposait des contenus « moins qualitatifs ». Le nouvel algorithme accorde en effet 5 points chaque fois qu’une réaction « en colère » est utilisée sur une publication, alors qu’un « j’aime » ne vaut qu’un seul point. Il est important de noter que le bouton « j’adore » valait également 5 points, mais que comme les publications les plus clivantes recevaient le plus de réactions, elles étaient mises en avant. Dans un mail envoyé aux services de Facebook, le CEO de Buzzfeed Jonah Peretti estimait ainsi que nouvel algorithme « ne récompensait pas les interactions les plus pertinentes ». Et les résultats des recherches des employés de Facebook lui ont donné raison.
Outrage et sensationnalisme
Les chercheurs de Facebook ont vite découvert que les médias et certains partis politiques avaient réajusté le ton de leurs publications afin d’engendrer plus de réactions, et pour cela, avaient tendance à être plus « sensationnalistes et outranciers », écrit le Wall Street Journal. Ces décisions ont des effets directs sur leurs positions politiques : des politiques auraient ainsi déclaré à Facebook avoir modifié le ton de leur discours, en partie pour avoir plus d’impact sur le réseau social.
Les journalistes du Wall Street Journal rapportent que des partis politiques polonais, espagnols, taiwanais, et indiens ont été influencés par les changements de Facebook. « De nombreux partis politiques, dont ceux qui ont changé leur discours, s’inquiètent de l’effet à long terme [de ce changement]sur la démocratie », expliquait un rapport interne de Facebook, que le Wall Street Journal a pu consulter. « Notre approche a eu des effets très négatifs sur les contenus politiques », ont écrit d’autres chercheurs dans un autre mémo sur le sujet.
Mark Zuckerberg, le CEO de Facebook, était au courant des implications du changement d’algorithme. Mais le chef d’entreprise a, pendant longtemps, refusé de prendre des mesures à la hauteur. Une équipe de chercheurs s’est rendu compte que modifier certains aspects de l’algorithme permettait de limiter la viralité de certaines fake news — le changement a été appliqué aux publications concernant la santé au printemps 2020. Mais lorsque l’équipe a proposé à Mark Zuckerberg de mettre en place ce changement sur tous les types de contenus, il aurait refusé, redoutant l’impact sur l’engagement des utilisateurs et utilisatrices du réseau, écrit le Wall Street Journal.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Marre des réseaux sociaux ? Rejoignez-nous sur WhatsApp !