Amnesty International a rendu un rapport dans lequel elle détaille la responsabilité de Facebook dans le génocide des Rohingyas. Selon elle, le réseau social aurait alimenté la haine contre la minorité musulmane, et doit aujourd’hui répondre de ses actes.

« Dans les mois et les années qui ont précédé les atrocités de 2017, Facebook a est devenu une caisse de résonance pour de violents contenus anti-Rohingya. » Cela faisait depuis 2017 que Facebook était accusé d’avoir empiré la violence contre les Rohingyas, la minorité musulmane du Myanmar, et d’avoir alimenté les attaques — la plateforme est d’ailleurs en ce moment en procès pour cette raison.

Son influence est prouvée par une longue étude menée par Amnesty International, publiée le 29 septembre 2022. Et ses conclusions sont glaçantes : « Meta a largement contribué aux persécutions et aux souffrances des Rohingyas, et doit apporter réparation aux survivants », estime l’ONG dans son rapport.

Facebook a joué un rôle dans le génocide des Rohingyas, selon Amnesty // Source : Canva
Facebook a joué un rôle dans le génocide des Rohingyas, selon Amnesty // Source : Canva

Facebook a « rendu possibles » les violences

« Le rôle du réseau social a été significatif » dans les atrocités qui ont eu lieu, peut-on lire dans le rapport. « Meta n’a pas été qu’une plateforme passive et qui apporté une réponse inadéquate à une crise. L’algorithme de Meta a activement amplifié et promu des contenus promouvant la violence, la haine et la discrimination envers les Rohingyas. »

Selon le rapport, dans les mois précédant le début des violences, l’armée du Myanmar et des groupes nationalistes bouddhistes ont systématiquement inondé Facebook de publications incitant à la violence envers les Rohingyas, indique le rapport. Ils auraient également diffusé des fake news qui auraient fait croire que la minorité musulmane voulait prendre le pouvoir.

Les conclusions du rapport sont d’autant plus accablantes que Facebook avait été prévenu, avant le début des violences, que le manque de modération sur le réseau social représentait un risque. Entre 2012 et 2017, plusieurs activistes se sont même rendus dans les locaux de Meta, à Menlo Park, afin d’avertir la plateforme qu’elle pourrait contribuer à un génocide si rien n’était fait. « Malgré ces efforts, Meta n’a pas écouté les avertissements », regrette le rapport.

« Notre analyse laisse peu de doute », conclut le rapport, « l’algorithme de Meta et ses pratiques irresponsables ont facilité et rendu possible les discriminations et les violences contre les Rohingyas. »

Le drapeau de la minorité Rohingya // Source : Canva
Le drapeau de la minorité Rohingya // Source : Canva

Le risque que ces événements se reproduisent

Le génocide contre les Rohingyas, qui a commencé en août 2017, a fait plusieurs milliers de victimes, selon les travaux d’Amesty. Des meurtres, des actes de tortures, des violences envers des enfants et de très nombreux cas de viols ont été rapportés. Les attaques ont été perpétrées par l’armée du Myanmar, et ont poussé près de 700 000 Rohingyas à fuir le pays et à se réfugier au Bangladesh, un pays voisin, où ils sont nombreux à toujours vivre dans des camps de réfugiés. En 2022, ces persécutions auraient encore lieu, estime Human Rights Watch.

En plus de ses conclusions, très sévères envers Facebook, Amnesty a terminé son rapport avec un avertissement : les réseaux sociaux de Meta pourraient, à nouveau, permettre de « graves violations des droits de l’homme. »

« En Éthiopie, en Inde et dans d’autres régions concernées par des conflits et des violences ethniques, Meta représente un vrai danger », juge le rapport. « D’importantes réformes doivent être prises urgemment, afin d’assurer que l’histoire de Meta avec les Rohingyas ne se répète pas. »