Sur YouTube, de nombreux dessins animés pour enfants à succès, comme Peppa Pig, font l’objet de détournements malsains dans des vidéos à caractère sexuel et/ou violent. Si le problème est connu depuis plusieurs mois, la plateforme vient seulement de promettre une meilleure modération de ce type de contenu.

Peppa Pig face à Venom, Peppa Pig confrontée à un dentiste sadique … Sur YouTube, certains héros populaires de dessins animés pour enfants font l’objet de détournements malsains, reconnaissables à leur qualité d’animation souvent sommaire et à leur intrigue étrange. Après avoir débuté comme un épisode officiel, ces imitations s’orientent généralement vers des contenus à caractère sexuel et/ou violent.

Les personnages Marvel ou de la Reine des neiges ne sont pas épargnés, entre Hulk « tout nu [qui] perd son pantalon » ou Elsa qui se fait « casser le bras par Spider-Man ». Ces détournements étranges, dont nous parlions pour la première fois sur Numerama en mars 2017, sont revenues sur le devant de la scène cette semaine, après la publication d’un long coup de gueule Medium signé de l’artiste James Bridle et d’un article du New York Times.

Confronté aux inquiétudes et critiques de parents qui s’inquiètent de l’impact de tels détournements sur leurs enfants, Juniper Downs, responsable de la politique de YouTube, vient d’annoncer une évolution du système.

peppa-detourne2

YouTube se penche (vraiment) sur le problème

« Nous sommes en train d’implanter une nouvelle [forme de modération] qui soumet ce type de contenu à une limite d’âge dans l’appli YouTube dès qu’il est signalé. Les [vidéos] marquées d’une limite d’âge sont automatiquement interdites dans YouTube Kids [l’appli pour enfants, dotée d’un contrôle parental] » explique-t-elle à The Verge.

La plateforme vidéo affirme que ce changement était à l’étude depuis un moment, même si le timing de cette annonce ne doit rien au hasard. Cette décision marque en tout cas un changement notable chez YouTube, qui avait reconnu l’existence de ce problème il y a plusieurs mois mais s’était à l’époque contenté d’encourager l’utilisation de YouTube Kids… en admettant qu’aucun filtre « n’est fiable à 100 % ».

Les algorithmes de recommandation de YouTube étaient également au cœur du problème puisque, dès qu’un utilisateur visionne un détournement du genre, la plateforme lui suggère automatiquement des contenus du même type.

Outre ses filtres automatisés — loin d’être infaillibles –, YouTube s’appuie sur une équipe de modération humaine, composée de milliers de salariés chargés de se pencher sur les vidéos signalées par les utilisateurs. Le service fait aussi appel à des modérateurs bénévoles nommés « contributeurs ».


Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !