Le ministre de l’Économie et des Finances est intervenu devant les parlementaires européens pour défendre l’ajout d’un indicateur sur tous les contenus générés par l’intelligence artificielle. Ce bandeau est nécessaire pour la transparence, a-t-il défendu. Mais l’applicabilité de cette exigence comporte des questions à résoudre.

À l’avenir, tous les contenus produits par intelligence artificielle générative devront comporter un indicateur signalant leur origine. C’est en tout cas la demande émise par Bruno Le Maire, alors qu’il s’exprimait devant le Parlement européen le 22 mai 2023. Cette règle s’appliquerait, par exemple, à ChatGPT pour le texte ou bien à Midjourney, en ce qui concerne l’image.

« Je pense qu’il faut des signalements systématiques », a ainsi déclaré le ministre de l’Économie et des Finances. L’intéressé a donné un exemple pour illustrer son propos, mais qui se révèle inexact : ChatGPT ne sait pas générer des images, son champ d’action se limite au texte. En revanche, Midjourney, Stable Diffusion ou encore Dall-E sont capables de sortir des visuels.

« Cela doit être souligné s’il s’agit d’une image générée par intelligence artificielle. Si un texte doit être généré de cette façon, même chose : il doit être barré d’un bandeau ‘généré par l’intelligence artificielle’. Il faut de la transparence et du signalement », a poursuivi Bruno Le Maire, dans un extrait capturé par La Chaîne Parlementaire sur Twitter.

L’intervention du ministre survient alors que le législateur européen est en plein chantier sur l’intelligence artificielle avec une future réglementation. Des votes en commission ont eu lieu mi-mai et l’adoption en séance plénière est attendue à la mi-juin. Plusieurs règles sont prévues pour encadrer l’emploi de l’IA, assorties parfois d’interdictions sur les usages les plus préoccupants.

Comment mettre cette transparence en pratique ?

La transparence sur l’origine artificielle des contenus générés par IA est souhaitable, mais pose des questions pratiques. De toute évidence, c’est le système d’IA lui-même qui devra appliquer le bandeau de signalement. Il est sans doute illusoire d’attendre des internautes une discipline d’airain sur ce terrain. Il faudrait que cet indicateur soit apposé de manière automatique.

Bruno Le Maire s’est d’ailleurs laissé prendre au jeu de la génération de contenu. Au début du mois d’avril, le ministre reconnaissait avoir testé l’écriture d’un discours sur Xi Jinping et la Chine avec ChatGPT. « J’ai eu un discours assez intelligent, bien structuré, en exactement cinq minutes », avait-il confié alors, reconnaissant que son test était « assez fascinant ».

Autre défi à résoudre : quelle forme devrait prendre cet indicateur ? Un macaron sur l’image ? À quel endroit ? Et quid du cas de figure où l’image est retouchée après, avec un logiciel de photomontage, pour effacer le marqueur ? Faut-il ajouter alors des métadonnées particulières au contenu ? Mais comment les rendre à la fois lisibles pour le grand public et infalsifiables ?

Source : Midjourney/Numerama
Un exemple de marqueur sur une image générée par IA : elle a été ajoutée par nos soins pour préciser sa nature artificielle. Mais cette solution, visible par le public, a aussi ses limites. Un coup de Photoshop et il disparaît. // Source : Midjourney/Numerama

Certaines entreprises commercialisant des photographies font le choix de barrer leurs photos avec des filigranes sur la quasi-totalité de leur surface — c’est le cas de Getty Images, pour empêcher la réutilisation illicite de leurs contenus tant qu’une licence adéquate n’a pas été achetée. Cette approche, bien que radicale, n’est pas invulnérable face à certaines éditions.

Cette solution est également repoussante, et risquerait de dissuader de se servir de ces outils si le contenu généré est fortement défiguré. L’équilibre à trouver apparaît pour l’heure délicat : la solution doit avant tout être accessible immédiatement pour le public. Croire qu’un procédé technique requérant des manipulations préalables sera adopté par les internautes est illusoire.

La demande de Bruno Le Maire s’inscrit dans cette recherche européenne de règles durcies contre les IA génératives. Comme le rappelle Euractiv, ces modèles vont devoir signaler chaque fois qu’un contenu généré par l’IA. D’autres obligations sont prévues sur les biais, l’interopérabilité, la sécurité, les sources de données ou encore le droit d’auteur

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !