Plusieurs mesures, notamment techniques, ont été annoncées par Facebook pour éviter que de nouveaux massacres gagnent en visibilité grâce à son service.

Le bannissement des discours nationalistes et séparatistes n’est pas la seule action décidée par Facebook après les terribles attentats de Christchurch qui ont endeuillé la Nouvelle-Zélande en mars. Le réseau social cherche aussi à resserrer l’usage de son service de diffusion de vidéo en direct — Facebook Live — afin qu’il ne puisse plus servir à véhiculer un message terroriste.

C’est l’une des trois pistes annoncées par Sheryl Sandberg, la numéro 2 de Facebook. Dans un communiqué publié le 29 mars, la directrice des opérations prévient que l’autorisation pour un membre du site communautaire de diffuser en direct dépendra à l’avenir de son « casier judiciaire » sur Facebook : s’il a par exemple déjà enfreint les standards de la communauté par le passé, c’est-à-dire les règles du site, le service Facebook Live lui sera refusé.

D’autres indicateurs, non précisés, devraient aussi être pris en compte pour savoir si tel ou tel internaute a le droit d’accéder au Facebook Live.

Sheryl Sandberg
Sheryl Sandberg. // Source : Datuna Otfinowski

Muscler les algorithmes de détection

Sheryl Sandberg annonce également un investissement accru de la part de Facebook dans les outils technologiques afin de détecter et de neutraliser les contenus violents qui sont mis en ligne et qui circulent sur la plateforme. L’entreprise américaine est obligée de s’en remettre presque exclusivement à la technologie, car une modération humaine en amont est impossible au regard de l’ampleur du service.

C’est ce qu’explique Yann LeCun, directeur scientifique de l’intelligence artificielle (IA) chez Facebook et professeur à l’université de New York, récent lauréat du prix Turing pour ses travaux dans les réseaux de neurones artificiels : « Il est sûr qu’il faut de l’IA pour aider à la modération des contenus, mais cela prend du temps pour faire des systèmes qui fonctionnent bien », dans des propos rapportés par Le Monde.

Cette tâche est difficile lorsque les internautes eux-mêmes contribuent à tromper les systèmes de détection insuffisamment préparés. « Nous savons que cette vidéo s’est répandue principalement par le biais de personnes qui l’ont partagée et rééditée pour la rendre plus difficile à nos systèmes de la bloquer ; nous avons identifié plus de 900 vidéos différentes montrant des parties de ces horribles 17 minutes », explique Sheryl Sandberg.

yann-lecun
Yann LeCun. // Source : O’Reilly Internal

Modération plus réactive

Quant à la réactivité insuffisante dont a fait preuve Facebook pour faire disparaître la vidéo de la tuerie, des améliorations sont aussi annoncées : « Au cours de la dernière semaine, nous avons également apporté des changements à notre processus d’examen pour nous aider à améliorer notre temps de réponse aux vidéos comme celle-ci dans l’avenir. »

Il faut savoir que ce n’est que 12 minutes après la fin du direct (et donc 29 minutes après le début de la retransmission), alors que la vidéo avait déjà atteint quelques milliers de vues, que Facebook a vent du problème, grâce à des utilisateurs qui signalent le contenu. Les modérateurs le retirent, d’après Facebook, en seulement quelques minutes. Dans la foulée, le réseau social contacte les forces de l’ordre.

Facebook aurait-il pu faire mieux ? Faute de détection parfaite grâce aux algorithmes, la réactivité du site dépend aussi en grande partie des signalements qui sont faits par le public — si celui-ci ne réagit pas, les radars du réseau social resteront silencieux. Mais une fois que l’alerte est donnée, le site communautaire a le devoir d’agir avec la plus grande des célérités.

À lire sur Numerama : Attentat de Christchurch  : comment Facebook et YouTube ont tenté de stopper la diffusion de la vidéo

Partager sur les réseaux sociaux