Twitter, Facebook, Microsoft et YouTube ont signé mardi un « code de conduite » avec la Commission européenne, pour mieux lutter contre les contenus racistes, homophobes ou autres messages d'appels à la haine ou à la violence sur Internet. Il prévoit de reposer sur un réseau de « rapporteurs de confiance » constitué par des associations.

On dirait un copier-coller, à l’échelle de l’Union européenne, de ce que Manuel Valls et Bernard Cazeneuve se sont employés à mettre sur pieds en France au lendemain des attentats de janvier 2015. Mardi, la Commission européenne a annoncé que Facebook, Twitter, YouTube et Microsoft s’étaient accordés avec elle sur un « code de conduite » qui doit permettre de renforcer la lutte contre les contenus haineux (racistes, antisémites, anti-musulmans, homophobes, etc.) sur Internet.

Du point de vues des utilisateurs, le code n’engage à rien de nouveau par rapport à ce qui est déjà pratiqué par les quatre géants américains du Web. Il s’agit surtout de confirmer l’importance des outils de signalement des contenus illicites, ce qui est déjà obligatoire en droit européen, et de s’engager à former des personnels spécifiques pour « que la majorité des signalements valides puissent être examinés en moins de 24 heures ». S’ils confirment que le contenu est une incitation à la haine ou à la violence, ils devront supprimer ou bloquer l’accès, ce qu’ils faisaient déjà.

Des associations expertes « rapporteurs de confiance »

Le principal intérêt du code de conduite est en réalité qu’il oblige à resserrer les liens entre les géants du Web et les organisations spécialisées de la société civile (OSC) comme la Licra, SOS Racisme, SOS Homophobie, ou leurs homologues étrangères. Ces dernières deviennent véritablement le bras armé de la modération des contenus haineux sur Internet, puisqu’il est demandé qu’une « grande partie des signalements de contenus incitant à la violence et aux comportements haineux proviennent d’experts  », et non des utilisateurs eux-mêmes, « notamment au moyen de partenariats avec des OSC ».

Ces dernières, dont la liste sera établie en lien avec les états membres et la Commission européenne, seront considérées comme des « rapporteurs de confiance », formées spécifiquement à ce rôle par Facebook, Twitter, Microsoft et Youtube. Elles seront aussi « soutenues » par les entreprises (il faut certainement comprendre financées), « en tenant dûment compte de la nécessité de préserver leur indépendance et leur crédibilité ».

Utiliser les capacités des géants du Web d’atteindre les utilisateurs

Les messages, photos ou vidéos signalés par ces « rapporteurs de confiance » ne seront pas automatiquement supprimés, mais ils seront mis sur le dessus de la pile, et regardés avec bienveillance par les géants du Web. Ils devront aussi avoir accès à « des informations claires sur leurs règles et lignes directrices internes ».

Le mois dernier, trois associations françaises (SOS Racisme, l’UEJF et SOS Homophobie) ont demandé en justice à Youtube, Twitter et Facebook de communiquer des informations sur leurs méthodes de modération, après une campagne de testing qui a révélé la permanence de nombreux messages haineux pourtant signalés.

Par ailleurs, même s’il n’y a pas d’obligation formulée, il est demandé aux géants du web qu’ils « utilisent davantage leur capacité d’atteindre les utilisateurs pour aider les OSC à mener des campagnes efficaces de contre-discours ». Là aussi, ce n’est plus une nouveauté. Des programmes pilotes pour diffuser des messages de contre-propagande djihadiste sont déjà lancés en Grande-Bretagne, et la France a elle-même annoncé le 9 mai dernier un plan d’action contre la radicalisation, qui prévoit notamment une « recommandation de contre-discours dans l’offre de contenus », en partenariat avec les réseaux sociaux et moteurs de recherche.

Partager sur les réseaux sociaux

Articles liés