L'université Cornwell a développé un logiciel, entraîné à prévoir si une conversation en ligne risque de devenir houleuse. Pour l'instant, cette technologie prédictive reste moins efficace que les humains.

La toxicité de certains réseaux sociaux, terrain de conversations houleuses voire de cyberharcèlement, n’est plus à démontrer. À cet égard, le fait d’anticiper qu’une discussion en ligne risque de mal tourner constitue un enjeu important.

C’est précisément à partir de cette idée que des chercheurs de l’Université Cornell (New York) ont travaillé sur un logiciel qui serait capable d’anticiper la tournure d’un échange en ligne, en devinant s’il est susceptible de mener à une dispute.

Comportements antisociaux

En partenariat avec Wikimedia et Google Jigsaw, l’université a publié le 14 mai 2018 son travail sur ce logiciel, en expliquant comment il tente de « détecter les signes précoces de l’échec d’une conversation » qui se manifestent par des « comportements antisociaux, comme le harcèlement ou des attaques personnelles. ».

Évoquant les travaux qui tentent déjà d’identifier les contenus haineux, les chercheurs Justine Zhang, Jonathan P. Chang et Christian Danescu-Niculescu-Mizil expliquent que leur « objectif est fondamentalement différent : au lieu d’identifier les commentaires antisociaux, [ils cherchent] à détecter les signes avant-coureurs qui indiquent qu’une conversation civilisée risque de déraper vers de tels comportements indésirables. »

CC Flickr École Polytechnique

Pour créer et entraîner ce logiciel, les universitaires ont utilisé de véritables discussions entre des internautes, sur les pages liées à des articles de Wikipedia. L’outil a par exemple été programmé pour identifier des textes corrélés à une « humeur » ou un ton dans la discussion.

Par exemple, le logiciel sait identifier qu’une discussion qui contient des formules de politesse — « Merci pour votre aide », « Comment allez-vous », « Je pense que » ou « S’il-vous plaît » — est le signe d’un échange courtois.

Une corrélation entre des mots et le ton d’une discussion

Au contraire, d’autres mots sont davantage identifiés par le logiciel comme des signes que la conversation pourrait prendre une mauvaise tournure. C’est le cas, notamment, des questions adressées de manière directe — « Pourquoi n’avez-vous pas cherché cela ? » — ou les débuts de réponse commençant par un pronom renvoyant à la deuxième personne — « Vos sources importent peu ».

Ils ont également eu recours à Perspective API, l’outil développé par Google pour tenter de repérer les commentaires toxiques dans une discussion en ligne.

CC Flickr WOCinTech Chat

Les trois chercheurs ont alors utilisé le modèle de la régression logistique, utilisée dans l’apprentissage automatique, pour trouver un équilibre entre ces différents signaux dans les analyses du logiciel. Une fois son entraînement achevé, la technologie a été confrontée à des discussions, dont certaines commençaient de manière amicale avant de se clore sur des insultes.

Moins efficace que les humains

Dans 65 % des cas, le logiciel a réussi à deviner que la conversation allait prendre une mauvaise tournure. Si ce pourcentage semble encourageant, il faut rappeler que le test s’est pour l’instant limité aux pages de discussions sur Wikipedia, où les intervenants tentent pour la plupart de contribuer à améliorer les articles de l’encyclopédie. À ce titre, on peut supposer que leurs échanges sont, pour la plupart, bienveillants.

En outre, les êtres humains sollicités par les chercheurs ont réussi à identifier qu’une conversation allait mal se passer plus souvent que le logiciel : ils y sont parvenus dans 72 % des cas.

Néanmoins, les scientifiques pensent que cette technologie préfigure de futurs outils capables d’intervenir dans des échanges en ligne. « Les êtres humains ont des soupçons quand les conversations risquent de mal tourner, et cette [recherche] montre qu’il est possible de rendre également les ordinateurs conscients de ces soupçons », avance Justine Zhang.

Partager sur les réseaux sociaux