Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Modérer, c'est dire aux racistes de se taire

Toutes les plateformes sont d'accord pour condamner les propos racistes, homophobes ou toute autre discrimination, sauf lorsqu'il s'agit de prendre des mesures claires à leur encontre. C'est le sujet que nous abordons dans la newsletter #Règle30, dont cet article est extrait.

La newsletter #Règle30 est envoyée tous les mercredis à 11h. 

Pour s’inscrire gratuitement pour la recevoir, c’est par ici.

Parfois, on sait tout de suite que la journée va être catastrophique. Le chat a vomi sur le lit, vous renversez votre café sur votre clavier d'ordinateur, vous réalisez un peu tard que vous n'avez plus de sous-vêtements propres. Mais si vous dirigez une grande société, le désastre ressemblera davantage à la dernière interview de Chris Best. La semaine dernière, le PDG de Substack a accordé un entretien au site américain The Verge

Son entreprise, qui développe une plateforme de newsletters très populaire chez les journalistes, créateurs et créatrices en ligne, a récemment lancé Notes, un service de microblogging qui ressemble à Twitter. Le rédacteur-en-chef de The Verge, Nilay Patel, en a profité pour interroger Chris Best sur sa vision de la modération des contenus. Un sujet attendu, surtout pour une entreprise qui a déjà affronté plusieurs polémiques sur son succès auprès des communautés transphobes et anti-vaccins. La question était pourtant simple : a-t-on le droit d'écrire sur Substack « les personnes à la peau brune sont des animaux et ne devraient pas avoir le droit de vivre aux États-Unis » ?

https://twitter.com/verge/status/1646588861529706497

S'en est suivie une séquence lunaire, où Chris Best a refusé de dire clairement qu'il souhaiterait supprimer cette phrase. Les règles de Substack interdisent pourtant les contenus « qui incitent à la violence contre des personnes aux catégories protégées », typiquement leur couleur de peau. Mais le PDG de Substack a préféré botter en touche pendant de longues et pénibles minutes. Il a défendu l'idée qu'il ne servirait à rien de supprimer les propos « avec lesquels on n'est pas d'accord », sans préciser leur nature. Comme si dénoncer le racisme, c'était la même chose que de ne pas aimer les Pim's au goût cerise. « Cela fait des années qu'on essaie de censurer certaines idées en espérant les faire disparaître. Et selon moi, cela n'a pas marché », explique Chris Best. « Nous voulons imaginer un réseau sur lequel les internautes ont le contrôle de leur propre expérience. Et, bien sûr, nous n'en sommes qu'au début. Nous avons encore plein de choses à résoudre.»

Nilay Patel l'interrompt : « Vous devez réfléchir à si le racisme est autorisé sur Substack ?»

Il n'y a pas de solution miracle avec la modération, mais il y a des bases

Cet échange est hallucinant, mais peu surprenant. Malgré notre recul conséquent sur ces questions (Facebook fêtera l'année prochaine ses vingt ans !), la modération reste un sujet que la plupart des plateformes ne veulent pas gérer. Certes, il faut replacer le discours de Chris Best dans son contexte culturel : la conception américaine de la liberté d'expression est très différente de la nôtre, et son cadre légal n'a rien à voir avec celui en vigueur dans la plupart des pays européens (dans son interview, le journaliste de The Verge précise d'ailleurs qu'il pense que « les lois pour réguler les discours de haine sont une mauvaise idée »). 

Si cela vous intéresse, je vous recommande cette analyse plus détaillée du sujet chez Techdirt (en anglais). Mais cette fuite en avant se retrouve aussi par chez nous. On se rappelle par exemple des gérants de la plateforme Tipeee qui refusaient de « trancher le vrai du faux ou le bien du mal », en tolérant des comptes ouvertement complotistes ou antisémites.

Bien sûr, la modération est un sujet complexe. Il faut se méfier des solutions miracles, comme les faux exercices de transparence (lisez ce billet passionnant qui analyse l'idéologie politique derrière l'ouverture du code-source de Twitter, notamment pour lutter contre la censure algorithmique) ou l'espoir que les internautes régleront les problèmes des plateformes à leur place. Personnellement j'apprécie le modèle de la modération communautaire, mais il est difficilement applicable sur des larges espaces centralisés et pose des questions éthiques sur les conditions de ce travail volontaire. Bref, il n'y a pas de solution technique imparable, de loi parfaite, de nombre minimum de modérateurs ou modératrices, pour répondre à la haine. Tous ces éléments doivent être réfléchis ensemble.

Je repense souvent à cette interview du fondateur de Something Awful, un forum très populaire dans les années 2000, dont les règles finissaient par une phrase toute bête : « Rappelez-vous qu'on peut vous bannir, juste parce qu'on en a envie.» On doit réfléchir aux nuances de la modération, admettre qu'elle puisse être injuste (comme vous le dira n'importe quelle femme avec les tétons qui pointent un peu trop), mais aussi que les limites légales ne suffisent pas toujours. Elles servent souvent d'excuse pour ne rien faire de plus. On peut surtout commencer par faire quelque chose très simple : choisir ses valeurs et les assumer. Modérer, c'est d'abord dire aux racistes de se taire.