L’auteur d’une attaque terroriste qui a fait 50 morts en Nouvelle-Zélande a publié sur Facebook une vidéo des faits en direct. Celle-ci a ensuite été repartagée de façon massive.

Vendredi 15 mars, 50 personnes ont été tuées dans une attaque terroriste islamophobe. Celle-ci a été perpétrée dans deux mosquées de la ville de Christchurch, en Nouvelle-Zélande. Le tireur a filmé et diffusé en direct son attaque, qui a ensuite été massivement diffusée sur les réseaux sociaux, comme l’ont rapporté Facebook et YouTube.

Un signalement 29 minutes après le début du direct

Dans des communiqués publiés lundi 18 mars, les deux plateformes détaillent la manière dont la vidéo a circulé en ligne. Au départ, c’est sur Facebook qu’elle est publiée, sous la forme d’un direct. Elle est visionnée à peine 200 fois en direct, mais aucun internaute ne pense alors à la signaler à la plateforme.

L'une des mosquées visées.  // Source : Google Maps

L'une des mosquées visées.

Source : Google Maps

Ce n’est que 12 minutes après la fin du direct (et 29 minutes après le début du live), alors que la vidéo a atteint les 4 000 vues, que Facebook est alerté par des utilisateurs qui signalent le contenu. Les modérateurs le retirent, d’après le communiqué, en seulement quelques minutes. Dans la foulée, le réseau social contacte les forces de l’ordre.

Parmi les 4 000 personnes qui regardent la vidéo, quelqu’un en fait une copie. Cet internaute la met en ligne sur une plateforme de partage de fichiers puis publie le lien vers sa copie sur le forum 8chan, réputé pour être extrêmement problématique – à tel point que le site n’est plus référencé par Google depuis plusieurs mois.

Des republications difficiles à identifier

Facebook de son côté, continue son « ménage » en supprimant le profil du tireur, sur Facebook et Instagram, qui appartient au même groupe. L’entreprise s’attache aussi à éradiquer les faux profils que des internautes créent avec le nom du terroriste. Enfin, une empreinte de la vidéo de la tuerie est réalisée. Cela permet aux algorithmes du réseau social de repérer automatiquement les republications d’un contenu en analysant les images, puis de les supprimer.

En 24 heures, Facebook supprime 1,5 million de vidéos

Comme l’explique Facebook, certaines formes de republication sont difficiles à repérer. C’est le cas de captures d’écran vidéo : le fait que le contenu vidéo soit entouré d’autres contenus trompe les algorithmes. Au total, on compte 800 types de vidéos différentes (avec ou sans cadre, entières ou des extraits), basées sur la même vidéo de départ. Pour y remédier, la plateforme utilise alors une seconde empreinte, cette fois vocale.

En seulement 24 heures, Facebook supprime 1,5 million de vidéos de l’attaque. 1,2 million d’entre elles seront bloquées avant même d’avoir pu être publiées, lors de leur téléchargement.

Une diffusion d’un « niveau sans précédent »

Des vidéos sont aussi publiées sur YouTube, peu après le direct. La plateforme explique dans une série de tweets que des dizaines de milliers de vidéos ont été retirées. Le jour de l’attaque et les suivants, des centaines de comptes créés pour faire l’éloge de l’attaquant sont aussi bannis.

Pour éviter que des internautes tombent sur les vidéos que YouTube n’aurait pas repéré à temps, la plateforme suspend temporairement une fonctionnalité qui permet de trier les résultats d’une recherche par date de publication. Cela permet de faire remonter des contenus plus légitimes comme des vidéos publiées par des médias.

Le volume de vidéos en lien avec l’attaque publiées sur YouTube dans les 24 premières heures suivant les faits serait d’un « niveau sans précédent ». Jamais des republications auraient été aussi rapides et nombreuses, assure l’entreprise qui précise qu’un contenu était publié toutes les secondes environ.

Diffuser ces images est puni par la loi

Twitter a également hébergé de nombreuses vidéos de l’attaque. L’entreprise a indiqué qu’elle travaillait de concert avec les autorités néo-zélandaises, ainsi qu’avec Facebook, Google et Microsoft. Les 4 sont partenaires dans un programme de lutte contre le terrorisme. Ils se sont partagés les empreintes des 800 et quelques vidéos différentes qui circulaient sur Internet, afin de pouvoir rapidement les identifier, grâce à des algorithmes.

L’assaillant avait particulièrement bien préparé sur le Web l’aspect viral de son attaque. En plus de la vidéo, il avait publié en ligne un manifeste de plus de 70 pages. Il s’agissait d’une sorte d’auto-interview, dans laquelle il décrivait ses motivations racistes et appelait à la haine et à la violence contre les musulmans. Son action n’a pas seulement montré les limites de la modération automatisée et humaine des réseaux sociaux. Elle prouve aussi que ce sont les internautes (particuliers, médias ou autres) qui rendent parfois viraux des contenus.

Pour rappel, diffuser des images d’une attaque terroriste n’est pas seulement éthiquement condamnable. En France, la loi punit le partage de tels contenus. Les peines encourues vont jusque 7 ans de prison et 100 000 euros d’amende.


Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !