La fondation Mozilla anime depuis septembre une campagne pour obliger YouTube à régler le problème de son algorithme de recommandation de vidéos. Un mois après avoir lancé un appel à témoignages, une première série de récits est publiée.

Mozilla avait annoncé la couleur mi-septembre : pour obliger YouTube à prendre à bras le corps le problème de ses algorithmes de recommandation, qui dirigent les internautes vers des vidéos indésirables, une campagne a été lancée pour embarrasser la plateforme. La stratégie ? Collecter des témoignages d’internautes qui illustrent au quotidien les dérives du leader des vidéos en ligne.

Un mois après la mise en place de cette campagne, Mozilla publie une première sélection de 28 témoignages montrant que, dans des circonstances pourtant très différentes (une recherche LGBT, une vidéo sur un chien errant ou encore un programme consacré aux Vikings et à la culture nordique), des internautes ont fini par tomber sur des contenus très loin de leurs préoccupations, sans parvenir à s’en extirper.

Ces témoignages sont actuellement disponibles seulement en langue anglaise. Ils illustrent avec quelle déconcertante facilité, à partir d’une requête banale, il est possible de tomber sur des contenus racistes, violents ou conspirationnistes, par le jeu des vidéos suggérées. Il est à noter que les internautes ont encore la possibilité de partager leur récit sur les ratés de YouTube via le formulaire dédié proposé par Mozilla.

Pour sa part, Google a tenu à faire savoir que, n’ayant « pas vu les vidéos, les captures d’écran ou les données en question », il n’est pas possible pour YouTube « d’examiner correctement les affirmations de Mozilla ». La plateforme tient à rappeler au passage ses efforts pour diminuer l’exposition des internautes aux contenus inadéquats, évoquant plus de 30 changements depuis le début de l’année.

YouTubeRegrets

  • « J’ai commencé à chercher des ‘vidéos de ratage’ où les gens tombent ou se font un peu mal. On m’a ensuite présenté une chaîne qui montrait des vidéos filmées depuis le tableau de bord de voitures. Au début, il s’agissait d’accidents mineurs, mais par la suite, cela a basculé sur des voitures explosant et tombant de ponts — des vidéos où les gens n’ont clairement pas survécu à l’accident. Je me sentais un peu mal à ce moment-là, et je n’ai pas vraiment cherché ce genre de contenu par la suite. »
  • « J’avais l’habitude de regarder occasionnellement une drag queen qui faisait beaucoup de vidéos et de vlogs positifs et d’encouragement. Sinon, je regardais très peu de choses qui n’étaient pas de la musique grand public. Mais mes recommandations et l’encadré étaient pleins d’anti-LGBT et de contenu haineux similaire. J’en suis arrivé au point où j’ai cessé de regarder leur contenu et je le regrette encore, car les recommandations m’ont suivi pendant des lustres.»
Un drapeau LGBT (image d'illustration) // Source : Flickr

Un drapeau LGBT (image d'illustration)

Source : Flickr
  • « Je suis professeur et j’ai regardé des documentaires sérieux sur Apollo 11. Mais les recommandations de YouTube sont maintenant pleines de vidéos sur les théories du complot : sur le 11 septembre, l’évasion d’Hitler, les chercheurs d’aliens et la propagande antiaméricaine. »
  • « Une fois, YouTube m’a recommandé une vidéo sur un chien errant (il était dans un état épouvantable) sauvé en Inde. Tout à coup, ma page d’accueil est pleine de vignettes d’animaux maltraités – des images vraiment tristes. Donc oui, ce n’est pas un bon début de journée pour moi.»
  • « Une fois, je cherchais des vidéos sur les Vikings et le néopaganisme nordique, et j’ai été amené à des vidéos faisant la promotion du racisme et de la suprématie blanche ! Je n’aime pas ça du tout. Je trouve cela très troublant.»

(mise à jour du sujet avec la réaction officielle de Google)


Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.