Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Cyberharcèlement : Twitch lance une IA pour repérer ceux qui contournent les bans

Twitch a annoncé l'arrivée d'un nouvel outil de modération basé sur de l'intelligence artificielle. Un pas en avant contre le cyberharcèlement, mais qui ne convainc pas tout le monde. 

« Suspicious User Detection », c'est le nom du nouvel outil de modération mis en place par Twitch. « Afin de continuer à faire de Twitch un endroit sûr pour tout le monde, nous vous présentons un nouvel outil qui permettra aux modérateurs de prendre des actions contre les comptes qui essaient d'éviter des bans  », a précisé la plateforme de streaming le 30 novembre, dans un communiqué de presse.

Les personnes qui, après avoir été bannies, se créent un nouveau compte pour pouvoir retourner sur le profil du streameur posent un vrai problème de modération. Twitch laisse, en effet, la possibilité de créer plusieurs comptes avec une seule adresse mail, ce qui laisse les personnes abusives libres de retourner sur les chats très facilement — des actions particulièrement néfastes dans le cas de cyberharcèlement. C'est pour essayer de répondre à ce problème que Twitch vient, enfin, de prendre des mesures.

https://twitter.com/Twitch/status/1465808096865959939

Comment cela va-t-il fonctionner ?

Dans son communiqué de presse, Twitch explique que l'outil permettra « d'identifier les comptes suspicieux grâce à du machine learning en analysant un certain nombre de signaux ». Twitch ne précise pas de quels signaux il pourrait s'agir, mais, « grâce à eux, cet outil signalera les utilisateurs suspicieux aux modérateurs, qui pourront prendre les actions nécessaires ».

Twitch précise que deux scénarios seront possibles : le signalement d'un cas « probable » et celui d'un cas « possible ».

La fonction sera activée automatiquement sur les comptes Twitch, et sera désactivable par les streameurs. La plateforme note également qu'il est possible d'empêcher les cas « possibles » de parler sur le chat, par défaut. Il sera également possible d'ajouter manuellement des comptes que les modérateurs trouvent suspicieux.

Un outil qui n'est pas forcément suffisant

Les contours de ce nouvel outil sont encore flous pour le moment. Quels sont les signaux qui seront utilisés pour déterminer si un utilisateur a essayé d'échapper à un ban en se créant un nouveau compte ? Est-ce que Twitch va simplement regarder si l'adresse mail a déjà été utilisée pour créer un précédent compte ? Dans ce cas-là, pourquoi ne pas simplement interdire la création de multiples comptes à partir d'une adresse mail ?

Un autre aspect met le doute sur la fonctionnalité de l'outil : le machine learning. Comme Twitch le reconnaît de lui-même, « le machine learning ne sera jamais à 100% efficace, ce qui signifie qu'il y a des risques de faux positifs, ou de faux négatifs ». Lors de streams normaux, les modérateurs pourront certainement ne pas être trop importunés par les faux négatifs. Mais il faudra voir si l'outil de Twitch reste efficace en cas de raid.

La mesure ne convainc en tout cas pas toutes les streameuses victimes de cyberharcèlement. Comme Numerama le soulignait récemment dans un article et une vidéo, les streameuses sont directement concernées par ces problèmes, tous les jours — et le fait de faire appel à de l'intelligence artificielle plutôt que d'interdire simplement la création de plusieurs comptes à partir d'une adresse mail questionne certaines d'entre elles.

https://twitter.com/_Nat_Ali/status/1465810339082256391

« Masquer des messages dans un tchat c'est bien, mais ça inquiète personne », a ainsi commenté la streameuse Nat'Ali sur Twitter en réaction à l'annonce du nouvel outil de Twitch. « On invisibilise les toxiques plutôt que de définitivement les dégager. [...] C'est bien ce genre d'outils, mais c'est toujours insuffisant  », estime-t-elle.

Comme le soulève Nat'Ali, l'outil aura besoin de mois d'apprentissage avant de bien fonctionner. Sera-t-il très efficace à terme ? Impossible à prédire — mais l'exemple des bots de YouTube, basés sur du machine learning, qui ont démonétisé de manière automatique des vidéos abordant des sujets liés à la communauté LGBT, suscite les inquiétudes de certaines utilisatrices et utilisateurs.

https://www.youtube.com/watch?v=nqb2kyybXBM