Des vidéos monétisées avec des dizaines de millions de vues étaient utilisées comme un réseau par des pédophiles. Elles montrent de jeunes enfants et affichent des publicités pour de grandes marques.

Disney, Epic Games, L’Oreal ou Alfa Romeo. Voilà quelques-un des noms qui se sont immédiatement désolidarisée de YouTube après la découverte de plusieurs de leurs publicités sur des vidéos au cœur d’un scandale impliquant un réseau pédophile, révélé par MattsWhatItIs, puis repris par Wired le 20 février 2019.

Sur la plateforme, de nombreuses vidéos ont été identifiées : elles représentaient des dizaines de millions de vues et montraient de jeunes enfants en train de faire de la gymnastique, du Yoga ou en train de jouer au Twister. Toutes étaient remplies de commentaires allant du « miam » à ceux demandant « d’autres vidéos de ce genre » avec « une meilleure lumière » ou « d’autres tenues ». La plupart d’entre elles étaient également  monétisées et affichaient donc des pubs de grandes marques.

La découverte de ces vidéos servant à des réseaux pédophiles a fait réagir certaines grandes sociétés, comme Epic Games, le développeur de Fortnite. Un porte-parole de la firme expliquait à Wired que « toutes les pubs pre-roll (qui apparaissent avant une vidéo) ont été mises en pause. Nous avons contacté Youtube pour savoir quelles actions ils allaient prendre pour éliminer ce genre de contenus ».

Suite aux révélations, la plateforme, filiale de Google, a confirmée avoir « examiné et supprimé des milliers de commentaires inappropriés, mis fin à plus de 400 chaînes et signalé les commentaires illégaux à la NCMEC (Centre national pour les enfants disparus et exploités) pour qu’ils travaillent avec les autorités compétentes ». Un bon début, même s’il doit en exister encore beaucoup d’autres vidéos passant pour l’instant inaperçues.

Une réaction de Youtube qui se fait attendre

Comme le disait le porte-parole de Youtube à Business Insider, « il y a encore beaucoup à faire, et nous continuons de travailler pour nous améliorer et repérer les abus plus rapidement ». Et pour cause : sans les révélations apportées par la vidéo et les médias, et leur impact sur les réseaux sociaux, la firme n’aurait peut-être rien trouvé avant un certain temps.

Le genre de commentaire que l'on pouvait trouver sous la vidéo d'une enfant qui fit de la gym. // Source : Youtube/Wired

Le genre de commentaire que l'on pouvait trouver sous la vidéo d'une enfant qui fit de la gym.

Source : Youtube/Wired

Alors que de nombreux créateurs voient leurs vidéos se faire démonétiser en quelques heures, celles-ci s’en tiraient apparemment sans dommage.

La raison principale est qu’en tant que telles, les vidéos ne sont pas illégales : elles ne montrent pas de contenu offensant, pas plus que d’éléments soumis au droit d’auteur… Le problème vient des commentaires et des personnes qui se partagent les vidéos à des fins pédophiles. Là encore, difficile pour un algorithme de le comprendre, puisque les commentaires ne sont généralement pas explicites, ce qui empêche la machine de vraiment les identifier.

L’autre problème à régler pour Youtube est celui posé par son algorithme. Toujours selon Wired et MattsWhatItIs, les vidéos du réseau pédophile étaient parfois mises en avant quand on se lançait avec un compte vierge sur la plateforme. On se trouvait alors pris dans un tourbillon des « meilleurs contenus » de cette communauté… Ce n’est plus le cas maintenant qu’elles ont été retirées, mais cela n’en reste pas moins inquiétant, et Youtube va devoir vite plancher sur une solution.


Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !