Une étude réalisée par six professeurs d'universités américaines s'est penchée sur la décision du populaire forum Reddit, en 2015, de bannir certaines communautés accusées de propos haineux. Si la décision avait provoqué une levée de boucliers à l'époque, elle se révèle plutôt efficace.

La lutte contre les discours haineux ne date pas d’hier, de Charlottesville, ni même de l’arrivée de Donald Trump à la tête des États-Unis. Mais plutôt à de nombreuses années, quand la parole raciste et xénophobe s’est de plus en plus libérée sur le net, jusqu’à l’apparition du mouvement alt-right. Un phénomène visible dans différents espaces de discussion en ligne, et notamment sur l’un des plus célèbres d’entre eux, Reddit.

Mais en 2015, le site, qui refusait fermement d’effectuer un profond travail de modération sur certains groupes ou sujets ouvertement insultants, a changé de politique, décidant dorénavant de « bannir les discussions acceptant que leurs communautés les utilisent comme une plateforme pour harceler des individus lorsque les modérateurs n’interviennent pas. » Une décision  vivement critiquée par les utilisateurs visés, et dont on pouvait se demander si elle arriverait à réellement bannir ce genre de discours du site.

Une étude réalisée par trois universités américaines vient d’apporter une réponse à cette interrogation : oui, l’expulsion certaines communautés racistes et xénophobes de Reddit a relativement bien fonctionné.

Une baisse significative des propos racistes

Réalisée par six professeurs des universités du Michigan, d’Emory et de Georgia Tech, cette étude visait à comprendre les effets de cette expulsion sur la teneur des discussions des membres de Reddit après coup. Pour cela, il a fallu réunir près de 100 millions de messages, datant d’avant et d’après la décision de bannir des espaces de discussion thématique comme le grossophobe r/fatpeoplehate ou bien le suprématiste r/CoonTown, pour ensuite les analyser au travers d’un logiciel permettant de quantifier le niveau de discours haineux — en ciblant des mots-clés définis manuellement.

Cette analyse approfondie a permis d’observer différents changements. En premier lieu, un pourcentage significatif des membres de ces sous-forums a tout simplement abandonné Reddit. Parallèlement à ceux qui ont quitté le navire, ceux qui y sont restés se sont vraisemblablement calmés sur les propos insultants ou racistes, avec une baisse significative « d’au moins 80 %.  »

Où sont passés les trolls ? Une partie des suprémacistes blancs a rejoint des topics où « le comportement raciste a été notifié » comme r/The_Donald ou le privé r/BlackCrimeMatters, quand les utilisateurs grossophobes ont plutôt rejoint des espaces plus softs comme r/RoastMe ou encore d’autres dédiés aux jeux vidéo et séries TV.

Bannir certains utilisateurs ou sujets qui dérivent vers le racisme et le harcèlement marche donc bel et bien. On pouvait s’inquiéter qu’une telle décision puisse «  répandre l’infection » sur le reste du forum, mais finalement, Reddit a réussi son coup en réglant une partie du problème. Une partie seulement, car l’étude note malgré tout que certains utilisateurs ont trouvé refuge sur d’autres sites, « des coins plus sombres d’Internet », comme Empeopled ou Snapzu. Mais à partir de moment où ils ne sont plus sur Reddit, ce n’est plus leur problème.

La modération peut marcher

Si cette politique fonctionne, Reddit a bien du mal à l’appliquer régulièrement. Pendant la campagne présidentielle américaine, mais aussi depuis le début du mandat de Donald Trump, des sujets comme r/The_Donald paraissent intouchables, le forum ayant peur d’être attaqué sur ses choix politiques, alors même qu’il y a deux ans, le CEO de l’époque Yishan Wong déclarait : « Vous choisissez ce que vous publiez. Vous choisissez ce que vous lisez. Vous choisissez quel type de sujet vous voulez créer.  »

C’est peut-être la limite du pouvoir des certains grands espaces de discussions sur le web, à l’image de Facebook et du problème des fake news. Les peurs d’un contrôle du contenu et de restriction de la liberté d’expression de la part des dirigeants de ces plateformes existent évidemment, au risque de laisser proliférer les comportements racistes. Cette étude a au moins le mérite de souligner qu’avec une modération efficace et concertée, ce type d’espaces de discussion pourrait aller un peu plus loin dans le contrôle du bon déroulé des échanges entre internautes.

Partager sur les réseaux sociaux