YouTube fixe de nouvelles règles autour de l’emploi de l’intelligence artificielle. La création d’un contenu réaliste, modifié ou créé de façon synthétique, par exemple avec de l’IA, devra impérativement avoir un label visible pour lej public. Des infractions à cette règle entraîneront des sanctions de la plateforme.

Les contenus synthétiques peuvent être partagés sur YouTube, mais ils auront l’obligation d’être signalés comme tels. Voilà la nouvelle trajectoire annoncée par la plateforme d’hébergement de vidéos, dans un billet de blog mis en ligne le 14 novembre. L’article aborde plusieurs thématiques liées à l’intelligence artificielle, dont celle des créations par IA.

label youtube ia
Un exemple de label, dans l’encart sombre. // Source : YouTube

Les différentes mesures indiquées par YouTube s’inscrivent dans une politique présentée comme un moyen d’adopter une « approche responsable » dans l’usage de l’IA. Ainsi, cette exigence impose notamment de la transparence dans ce qui est montré au public. En conséquence, les contenus générés à l’aide l’IA devront à l’avenir comporter une mention claire.

Pour cela, YouTube prévoit de mettre à disposition des créateurs et des créatrices de contenus de nouvelles options à sélectionner dans les paramètres de la vidéo. Ces réglages additionnels, qui doivent arriver dans les prochains mois, permettront de dire au public si un contenu réaliste a été modifié ou créé artificiellement, y compris avec de l’intelligence artificielle.

« Il peut s’agir, par exemple, d’une vidéo générée par l’IA qui décrit de manière réaliste un événement qui n’a jamais eu lieu, ou d’un contenu montrant une personne en train de dire ou de faire quelque chose qu’elle n’a pas réellement fait », développent Jennifer Flannery O’Connor et Emily Moxley, deux vice-présidentes de YouTube en charge de la plateforme.

La plateforme estime que cet ajout est crucial dans les cas où ledit contenu va sur des terrains politiquement sensibles : élections, crises de santé publique, conflits en cours, responsables politiques. Il y a alors le risque d’une manipulation de l’opinion publique, à travers des manœuvres de désinformation, avec des contenus réalistes, mais fabriqués de toutes pièces.

youtube barré
De nouvelles règles arrivent pour contenir la propagation de contenus factices. // Source : Javier Miranda avec Canva

Des mesures qui pourront également s’étendre à des manipulations s’apparentant à du deepfake, ces vidéos qui utilisent le visage et / ou la voix d’une personne, pour lui faire tenir des propos imaginaires ou la placer dans des situations inventées — cela, à l’aide de l’intelligence artificielle. Là encore, il y a le risque de tromper le public en inventant le point de vue d’un tiers, par exemple.

Dans ces cas spécifiques, poursuit YouTube, la solution ne sera pas la labellisation, mais une procédure permettant de supprimer ces contenus générés par IA. Cela sera possible si des artistes, des vidéastes ou même des particuliers sont réutilisés sans leur consentement pour créer des contenus factices — par exemple, faire « chanter » une fausse chanson à un vrai artiste.

Les vidéastes auront tout intérêt à s’y conformer, car cette nouvelle exigence sera accompagnée de sanctions si des infractions sont relevées. « Les créateurs qui choisissent systématiquement de ne pas divulguer ces informations s’exposent à la suppression de leur contenu, à la suspension du programme de partenariat ou à d’autres sanctions », prévient le site.

Mouvement global vers la régulation

La décision de YouTube s’inscrit dans un cadre où les États-Unis, comme d’autres, suivent un mouvement de réglementation accrue de l’IA. Un sommet organisé en novembre à Londres, « AI Safety Summit », a illustré cette tendance. La Chine, le Royaume-Uni, l’Union européenne, le Japon, la Corée du Sud, le Brésil, le Canada, l’Inde et une quinzaine d’autres nations participaient.

Cet été d’ailleurs, la Maison-Blanche avait rassemblé plusieurs grandes sociétés américaines liées à l’IA, dont OpenAI (à qui l’on doit ChatGPT), Anthropic (qui a conçu le chatbot Claude) et Google (propriétaire de YouTube). Il s’agissait de leur demander d’être raisonnables sur l’IA. Depuis, un décret présidentiel a été pris, qui intègre d’ailleurs cet enjeu de la labellisation.

Cette transparence est d’ailleurs observée par Numerama dans son usage ponctuel de l’IA : les quelques images d’illustration générées par des outils comme DALL-E ou Midjourney sont identifiées avec l’aide d’un macaron explicite. Cela s’accompagne de la décision d’éviter de générer des visuels réalistes de personnalités vivantes ou d’évènements d’actualité.

Cette nouvelle politique reste désormais à implémenter dans YouTube et, surtout, à appliquer scrupuleusement. Une mesure nécessaire, tant les contenus factices fleurissent désormais. Au-delà de YouTube, des visuels par intelligence artificielle pullulent dorénavant sur bien des plateformes, y compris grand public comme TikTok ou Instagram.


Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.