Les députés européens doivent décider ce jeudi 11 mai 2023 d’une position sur l’IA Act, qui vise à encadrer le développement de l’intelligence artificielle au sein des États membres. S’il est encore amené à évoluer, ce texte veut réduire les risques associés aux IA sur plusieurs fronts, en matière de protection des données, de transparence, ou encore de sécurité et d’éthique.

« Il est important d’aller vite. Nous avons vraiment besoin que notre législation s’adapte. » La vice-présidente de la Commission européenne Margrethe Vestager l’affirmait encore lundi 8 mai 2023 : l’Union européenne « n’a pas de temps à perdre » pour réguler l’intelligence artificielle. Il faut dire que la première version de l’IA Act a été présentée il y a déjà deux ans.

Qu’est-ce que l’IA Act ?

L’Artificial Intelligence Act (IA Act), le projet de règlement de la Commission européenne sur l’IA, a été proposé pour la première fois en avril 2021. Le texte vise à apporter un cadre juridique uniforme à l’usage et à la commercialisation des intelligences artificielles. Pour protéger les usagers, les IA y sont catégorisées selon la gravité des risques qu’elles posent, avec des garde-fous adaptés à chaque type. 

Où en est-on ?

Ce jeudi 11 mai, les eurodéputés doivent voter en commission pour décider d’une position commune, qui devra être confirmée en plénière en juin. De fastidieuses négociations doivent ensuite débuter entre le Parlement, la Commission et les États membres. De son côté, Margrethe Vestager estimait lundi 8 mai que l’IA Act devrait être « adopté d’ici à la fin de l’année ».

Drapeau de l'Union européenne. // Source : Canva
Drapeau de l’Union européenne. // Source : Canva

Quels systèmes seraient interdits ?

Dans le projet de règlement d’avril 2021, certaines IA seront purement et simplement interdites. Sont concernés :

  • Les systèmes établissant une « note sociale », qui classifient les personnes selon leur fiabilité, par exemple, et peuvent conduire à « un traitement préjudiciable ou défavorable » ;
  • Les systèmes d’identification biométrique à distance et en temps réel « dans des espaces accessibles au public à des fins répressives », y compris par les autorités ;
  • Les systèmes qui visent à manipuler par des techniques subliminales agissant sur l’inconscient ;
  • Les systèmes ciblant les personnes vulnérables comme les enfants ou les personnes handicapées.

Quels systèmes seraient permis sous conditions ?

  • Les systèmes à « hauts risques », car ayant une « incidence préjudiciable significative sur la santé, la sécurité et les droits fondamentaux des citoyens », comme les machines médicales, les systèmes de reconnaissance faciale ou les voitures autonomes, par exemple. 

Ces IA, classifiées comme très risquées, seront autorisées sous réserve de contrôles effectués par des agences nationales. Ces audits seront menés par des tiers indépendants. 

En France, la période des Jeux Olympiques sera par ailleurs l’occasion d’expérimenter la vidéosurveillance algorithmique, qui exploite des technologies d’intelligence artificielle. La période de test s’étendra sur six mois, jusqu’en mars 2025.

  • Les systèmes présentant des « risques spécifiques de manipulation », c’est-à-dire qui interagissent avec des humains, sont utilisés pour analyser des émotions ou identifier des catégories sociales grâce à des données biométriques, ou génèrent des contenus tels que des « trucages vidéo ultra-réalistes ».

Ces systèmes devront être assortis d’obligations de transparence spécifiques, en l’occurrence, un avertissement sur le fait que leur contenu est « généré par des moyens automatisés ». Le logiciel Midjourney a ainsi déjà fait polémique après que les fausses images d’actualité qu’il a généré aient été prises à tort par certains internautes pour de réels clichés

« Dans cette nouvelle régulation, et on est les premiers à le faire, tout ce qui sera généré par des intelligences artificielles, que ce soit des textes (tout le monde connaît maintenant ChatGPT) ou des images, [comportera] une obligation de signifier [que cela] a été fait par une intelligence artificielle », affirmait début avril le commissaire européen au Marché de l’intérieur Thierry Breton début avril sur Franceinfo. Les moyens concrets de tracer les productions d’IA n’ont cependant pas encore été précisés.  

Si ChatGPT pourrait correspondre à plusieurs de ces catégories d’IA, le secrétaire d’État au numérique Jean-Noël Barrot a déjà assuré ne pas souhaiter l’interdire, comme plusieurs pays européens l’ont déjà tenté. Le comité national d’éthique doit rendre son avis d’ici à quelques mois au sujet du chatbot.

Quels systèmes seraient autorisés sans réserve ?

  • Tous les autres types d’IA ne nécessiteront pas d’évaluation ou de mesures particulières. C’est le cas, par exemple, des objets connectés recourant à l’IA.

    Ces systèmes devront simplement respecter les droits fondamentaux et la loi européenne, et en particulier le Règlement général sur la protection des données (RGPD).

Quelles mesures pour favoriser l’innovation ?

Le texte cherche aussi à stimuler l’innovation en permettant la création de « bacs à sable réglementaires », c’est-à-dire d’environnements contrôlés qui serviront à essayer de nouvelles technologies durant un temps limité.

Quelle protections spécifiques sur les IA génératives ?

Parmi les amendements ajoutés au texte qui sera voté ce jeudi, une disposition imposera que toutes les IA génératives comme ChatGPT, Midjourney et DALL-E divulguent quels contenus protégés par des droits d’auteurs elles ont utilisés pour entraîner leur modèle de langage

La question du copyright du matériel d’entraînement est déjà au cœur de plusieurs conflits juridiques. Ainsi, en début d’année, on apprenait que la banque d’images Getty Images avait porté plainte contre l’entreprise Stability AI pour avoir recouru à son catalogue pour mettre au point son IA Stable Diffusion.

Les modèles d’IA génératives devront aussi être testés pour atténuer les risques prévisibles concernant la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et la loi, en impliquant des experts indépendants, rapporte Computerworld.com. Les dangers non évitables devront être décrits dans une documentation précise. On peut, par exemple, penser à l’utilisation de ChatGPT pour écrire du code malicieux qui pourrait ensuite être utilisé dans des attaques informatiques ou autre acte illégal.

Afin d’explorer en profondeur le monde fascinant des IA, Numerama a imaginé une nouvelle newsletter gratuite : Artificielles. Un projet conçu par intelligence artificielle et vérifié par Numerama, auquel vous pouvez vous abonner à l’aide du formulaire ci-dessous.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !