L’Union européenne refuse de laisser les contenus générés par intelligence artificielle sans encadrement. Un texte est en préparation et l’implication des géants du net est attendue, de gré ou de force.

Les grandes plateformes du numérique doivent développer les outils adéquats permettant de détecter automatiquement les contenus gérés par l’intelligence artificielle, lorsqu’ils circulent sur leurs serveurs. Mais en outre, il leur faut créer un système de labellisation qui servira à signaler très clairement la nature artificielle de ces médias, afin de prévenir le public.

Ces deux axes de travail sont ceux que défend Věra Jourová, la vice-présidente de la Commission européenne chargée des Valeurs et de la Transparence. Lors d’une déclaration à la presse le 5 juin, la Tchèque a indiqué que ces efforts doivent être menés par les signataires du code de bonnes pratiques de 2022 en matière de désinformation.

Ce code, dont l’origine remonte à 2018, regroupe les principaux géants du net, mais aussi des membres du secteur de la publicité, des entreprises de la tech ou encore des organisations de la société civile. Adobe (créateur de Photoshop et Firefly), Google (YouTube), Meta (Facebook et Instagram), Twitch, Twitter, Microsoft et TikTok en sont membres.

L’implication des signataires du code sur la désinformation est motivée par le fait que les contenus générés par intelligence artificielle sont, de fait, utilisés aussi pour inventer des situations qui n’existent pas. Certaines images peuvent être démystifiées aisément (Emmanuel Macron en manifestation), d’autres sont plus dures à analyser (un senior ensanglanté).

Les progrès des intelligences artificielles génératives sont bluffants et rapides. GPT-4 est bien supérieur à GPT-3.5 dans la compréhension et la production de texte. Du côté des visuels, les mises à jour régulières de Midjourney (on est passé en quelques mois de la v4, en novembre, à la v5, en mars, puis à la v5.1, en mai) tendent de plus en plus vers du photoréalisme.

Il y a encore des faiblesses que l’on peut déceler, ici sur un passage écrit aberrant, là sur un détail mal généré, mais ce ne semble être qu’une question de temps avant que ces faux pas soient corrigés. GPT-4 appliqué au droit donne par exemple des réponses beaucoup plus abouties que GPT-3. Midjourney v5 n’a plus guère de difficultés avec les mains et les doigts.

Ces outils seraient bénins s’ils ne servaient qu’à produire des contenus sans lien avec le réel. Cependant, l’histoire récente montre que l’IA générative sert aussi à tromper le public, en s’insérant dans l’actualité avec un message qui est faux. On a ainsi vu Donald Trump arrêté par la police ou bien du Pape François dans une grosse doudoune. Des images factices, mais plausibles, donc troublantes.

Marquer systématiquement les contenus générés par IA

C’est dans ce contexte que s’inscrit la demande de la Commission européenne, qui anticipe l’arrivée d’outils d’IA générative encore plus aboutis — que ce soit GPT-5, Midjourney v6 ou tout autre service du même acabit. Une demande qui n’est pas isolée d’ailleurs. En France aussi, un marquage clair des contenus générés par IA est réclamé.

Il est à noter que plusieurs membres de ce code sur la désinformation sont eux-mêmes impliqués dans le développement de l’IA générative. C’est le cas d’Adobe avec Photoshop (avec l’outil generative fill) et Firefly, une plateforme dédiée. On trouve aussi Microsoft, qui soutient OpenAI et ses projets comme DALL-E (image) et ChatGPT (texte), Facebook et Google.

Dès lors, ces entreprises apparaissent avoir une responsabilité toute particulière en participant à ce mouvement général. Une pression que ces géants de la tech ne découvrent pas. Cela fait des mois que l’Union européenne planche sur des règles durcies contre l’IA générative. Un texte de loi dédié (AI Act) est en gestation, mais dont l’entrée en vigueur ne sera pas immédiate.

Un robot faisant les devoirs // Source : Numerama avec Midjourney
À Numerama, un petit macaron est ajouté sur l’image. // Source : Numerama avec Midjourney

D’ici là, l’Union européenne a encore d’autres leviers à mobiliser, comme le Digital Services Act (DSA). Ce texte prévoit justement des obligations accrues pour les plus grandes plateformes du net (on retrouve Google, Facebook, TikTok, Twitter, LinkedIn, Instagram, YouTube, Microsoft, notamment). Le DSA prévoit justement un volet sur la lutte contre la désinformation.

La commissaire européenne a développé à cette occasion un argument notable, qui pourrait faire tache d’huile. Selon elle, la régulation durcie et contraignante autour de l’IA générative ne constitue en aucune façon un problème sur les libertés des personnes. Après tout, les libertés et les droits sont pour les humains, et non pas pour les machines.

« J’ai dit à plusieurs reprises que notre tâche principale était de protéger la liberté d’expression, mais lorsqu’il s’agit de la production de l’intelligence artificielle, je ne vois aucun droit à la liberté d’expression pour les machines », a-t-elle relevé. Les machines n’ont en effet pas de personnalité juridique, comme les personnes ou les organisations (personne morale).

« Lorsqu’il s’agit de la production de l’IA, je ne vois aucun droit à la liberté d’expression pour les machines »

Věra Jourová

En réalité, la difficulté pourrait surtout être de nature technique. Comment faire pour développer des outils efficaces de détection de contenus générés par l’IA, alors que les systèmes qui les conçoivent s’améliorent sans cesse et ne sont pas toujours sous le contrôle d’une entreprise — il existe en effet des outils dans la nature qui servent à générer les pires contenus.

Ces difficultés avaient été indirectement mises en lumière avec les deepfakes, ces vidéos dans lesquelles un visage d’une personne vient en superposition de celui de quelqu’un dans une scène, pour faire croire qu’elle s’y trouvait. Souvent, ces vidéos sont à visée humoristique, politique et pornographique. De nombreuses célébrités se retrouvent ainsi mêlées à des contenus X.

Dans le cas de Facebook, ces deepfakes sont interdits par son règlement. Mais la mise en œuvre concrète de cette interdiction se heurte à la réalité technique. Des travaux menés en 2020 ont montré que seuls 2 contenus sur 3 étaient repérés. Le réseau social poursuit néanmoins ses efforts. Idem pour les autres entreprises, à l’image de Google.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.