Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Twitter va vous laisser insulter vos amis... s'il comprend que vous blaguez

Comment faire la distinction entre une vanne amicale et une situation d'agression sur Internet ? Twitter pense avoir la solution et va déployer (en anglais dans un premier temps) un système pour mieux modérer les propos injurieux.

Conscient que son site est souvent utilisé pour harceler et intimider les internautes, Twitter a depuis quelques années multiplié les initiatives pour rendre sa plateforme plus saine. On peut notamment citer les récentes limitations sur le retweet d'article de presse ou le Safety Mode, censé limiter les raids numérique.

La plateforme veut désormais déployer une modération plus efficace contre les propos injurieux. « Les gens viennent sur Twitter pour parler de ce qui se passe, et parfois les conversations sur des sujets qui nous tiennent à cœur peuvent devenir intenses et les gens disent des choses sur le moment qu’ils pourraient regretter plus tard  », explique le site dans un billet de blog daté du 5 mai 2021.

Après avoir testé l’année dernière un système de pop-up qui vous avertir en cas de tweet contenant des caractères injurieux, Twitter va déployer sa solution pour tous les comptes paramétrés en anglais bientôt. Le réseau de microblogging affirme même avoir calibré son système pour détecter les subtilités relationnelles.

Insulte amicale et retournement de stigmates

« Lors des premiers tests, les personnes étaient parfois alertées inutilement parce que les algorithmes qui alimentaient le système avaient du mal à saisir les nuances de nombreuses conversations et ne faisaient souvent pas la différence entre un langage potentiellement offensant, un sarcasme et un badinage amical », nuance Twitter.

Mais les algorithmes revus et corrigés promettent de mieux détecter ces cas-là en se reposant par exemple sur l’historique de la relation entre deux personnes. Si deux comptes s’envoient régulièrement et mutuellement des messages, il y a plus de chance qu’un tweet contenant un mot vulgaire soit envoyé dans un contexte humoristique.

Le site va même plus loin et affirme que cette nouvelle version de ses algorithmes sera assez finement paramétrée pour détecter le retournement de stigmate, soit le fait pour une population marginalisée de se réapproprier un terme offensant pour en faire une marque de distinction. La méthode d’analyse employée n’est cependant pas détaillée dans ce cas là, peut-être pour éviter les abus. C’est une amélioration attendue car, comme nous l'avions montré dans une récente enquête, les mots « pédé » ou « gouine » sont, par exemple, très souvent censurés par le réseau social, même lorsqu’il s’agit d’une réappropriation d’insulte par des personnes de la communauté LGBT+.

Lors de sa phase de test, Twitter affirme que les algorithmes ont permis dans 34 % des cas de « modifier leur réponse ou de ne même pas envoyer le tweet » et même de réduire le volume de contenu offensant puisque les internautes qui sont confrontés à une alerte au moins une fois ont en moyenne ont eu tendance à écrire 11 % de tweets insultants en moins. On prend les victoires qu’on peut.