Selon des témoignages de prestataires de YouTube relayés par BuzzFeed, la présence de vidéos malsaines pour enfants sur la plateforme vidéo s'expliquerait en grande partie par le mauvais entraînement des algorithmes de classement. Les équipes seraient en effet chargées de privilégier la forme au fond dans leurs évaluations.

Pour mettre fin aux dérives liées à ses vidéos malsaines  pour enfants — qu’il s’agisse de parodies de dessins animé à caractère violent comme sexuel ou encore de productions qui mettent en scène des mineurs dans des contextes perturbants –, YouTube compte faire appel à plus de 10 000 modérateurs en 2018.

Mais l’origine du problème ne vient pas tant du manque de main d’œuvre que des consignes  qui sont données aux équipes actuellement en poste, à en croire BuzzFeed. Le site américain a en effet interrogé plusieurs prestataires chargés « d’entraîner » les algorithmes de la plateforme vidéo pour qu’ils fournissent les résultats de recherche les plus pertinents, en se basant sur un document en date d’avril 2017, non mis à jour malgré la polémique de ces derniers mois — qui a notamment provoqué le boycott de certains annonceurs.

Leur travail consiste notamment à noter les vidéos mises en ligne sur la plateforme pour évaluer leur qualité. Or, les consignes fournies par YouTube ont selon eux tendance à valoriser la forme au fond, en exigeant systématiquement d’attribuer des bonnes notes aux productions esthétiquement irréprochables : « Lorsqu’une vidéo est perturbante ou violente, on peut la signaler mais on doit malgré tout la qualifier de vidéo de grande qualité [selon des critères  relevant de la qualité de la réalisation, de l’animation, etc.] »

La viralité au détriment de la pertinence ?

De son côté, la plateforme vidéo de Google reconnaît le travail fourni par ces prestataires mais minimise sa portée : « Nous faisons appel à ces [personnes] pour évaluer la qualité des résultats de recherche sur YouTube et nous assurer que les vidéos les plus pertinentes ressortent selon différents mots-clé. Mais [ces prestataires] ne déterminent pas le classement des contenus dans les résultats, ou s’ils violent nos conditions d’utilisation, sont supprimés, soumis à une limite d’âge et non monétisables. »

La plateforme souligne qu’une équipe dédiée est chargée de ce questions — alors que des modérateurs bénévoles ont déjà dénoncé le manque de soutien de YouTube en la matière. En pratique, ce système permet à ces vidéos malsaines de rester en ligne sur la plateforme — et même de gagner en visibilité, ce qui augmente leur nombre de vues et entretient ce cercle vicieux.

Bart Selman, un spécialiste de l’intelligence artificielle à l’université de Cornell, explique ainsi à BuzzFeed le paradoxe en vigueur, qui oppose directement les intérêts de YouTube et ceux du public désireux de préserver ses enfants de ce type de vidéos : « Les contenus controversés — que ce soit des vidéos, du texte ou des actualités — se partagent plus facilement, ce qui offre plus de vues, plus de présence sur la plateforme et donc plus de revenus. »

Partager sur les réseaux sociaux