Pour comprendre d’où viennent les comportements abusifs sur Twitter, des chercheurs sélectionnés par le réseau social vont observer les « chambres d’écho ». Ces espaces clos favorisent en effet la diffusion de discours inappropriés.

Twitter va faire appel à des universitaires pour observer comment les comportements toxiques sont encouragés par des espaces clos sur sa plateforme. Le 30 juillet 2018, le réseau social a annoncé son intention de « mesurer les conversations saines » en invitant des chercheurs à se pencher sur le concept des « chambres d’écho ».

Alors que la plateforme vient de supprimer de nouveaux comptes dans la nuit du 30 au 31 juillet, Twitter en appelle désormais aux experts pour continuer à lutter contre les dérives toxiques sur son site. Pour continuer sur sa lancée, le réseau social propose à des chercheurs de mener une étude pour déceler d’où viennent ces chambres d’écho et les discours inadaptés qu’elles encouragent.

D’où viennent ces chambres d’écho sur Twitter ?

Lancé en mars, cet appel aux experts a permis à Twitter de recevoir plus de 230 propositions. Les chercheurs retenus pour mener cette étude sur le réseau social viennent, entre autres, de l’Université de Syracuse (New York, États-Unis), de l’Université Bocconi (Milan, Italie) et de l’Université de technologie de Delft (Pays-Bas).

« Un partenariat avec des experts externes qui peuvent apporter une analyse réfléchie, une perspective externe, et un examen rigoureux est la meilleure façon d’estimer notre travail et de rester responsable envers ceux qui utilisent Twitter », assure Twitter dans une publication de blog.

Un espace clos, qui rejette les opinions divergentes

Le travail de ces experts va s’attacher à observer les « chambres d’écho », ou bulles d’opinion politique, pour voir comment elles sont à la source des discours toxiques sur Twitter. Les travaux seront menés par Rebekah Tromble, professeure adjointe à l’Université de Leyde (Pays-Bas), spécialisée dans la politique sur les réseaux sociaux. Ses précédentes recherches fourniront une base à l’étude, car l’universitaire a déjà montré qu’on groupe de personnes partageant des idées communes, réunies pour en discuter, risquait fort de rejeter toute personne ne participant pas à cette discussion.

Cette situation crée ainsi des chambres d’écho, comme le décrivait en 1998 John Scruggs, lobbyiste chez Philip Morris : il expliquait alors que cette chambre d’écho agit à l’aide de deux mécanismes. Le premier est la répétition d’un même message par plusieurs sources ; quant au deuxième, il s’agit de la diffusion de messages semblables, par une seule source.

Des informations ciblées, qui renforcent les convictions des membres

Ainsi, les membres d’une même chambre obtiennent des informations triées à l’avance, qui correspondent à leurs opinions et viennent les renforcer : en étant moins exposés à des opinions divergentes, les utilisateurs ont tendance à attaquer toute voie qui leur opposerait un avis différent. Cette situation peut même conduire à la diffusion de fausses informations, qui paraissent crédibles, car elles sont répétées et vont dans le sens des opinions des membres.

Pour étudier ce phénomène à l’œuvre sur Twitter, les universitaires vont concevoir des algorithmes entraînés pour identifier les conversations « inciviles » ou « intolérantes ». Dans le premier cas, le réseau social précise qu’elles peuvent être problématiques, mais nécessaires à la liberté d’expression. Le travail des experts consistera ainsi à identifier les différences avec le deuxième type de discours, afin que le réseau social soit armé pour mieux cibler les futurs comportements abusifs.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.