Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

7 questions sur l'IA Act, le projet européen de réglementation de l'intelligence artificielle

Les députés européens doivent décider ce jeudi 11 mai 2023 d’une position sur l’IA Act, qui vise à encadrer le développement de l’intelligence artificielle au sein des États membres. S’il est encore amené à évoluer, ce texte veut réduire les risques associés aux IA sur plusieurs fronts, en matière de protection des données, de transparence, ou encore de sécurité et d'éthique.

« Il est important d'aller vite. Nous avons vraiment besoin que notre législation s'adapte. » La vice-présidente de la Commission européenne Margrethe Vestager l’affirmait encore lundi 8 mai 2023 : l’Union européenne « n’a pas de temps à perdre » pour réguler l’intelligence artificielleIl faut dire que la première version de l’IA Act a été présentée il y a déjà deux ans.

Qu'est-ce que l'IA Act ?

L’Artificial Intelligence Act (IA Act), le projet de règlement de la Commission européenne sur l’IA, a été proposé pour la première fois en avril 2021. Le texte vise à apporter un cadre juridique uniforme à l’usage et à la commercialisation des intelligences artificielles. Pour protéger les usagers, les IA y sont catégorisées selon la gravité des risques qu’elles posent, avec des garde-fous adaptés à chaque type. 

Où en est-on ?

Ce jeudi 11 mai, les eurodéputés doivent voter en commission pour décider d’une position commune, qui devra être confirmée en plénière en juin. De fastidieuses négociations doivent ensuite débuter entre le Parlement, la Commission et les États membres. De son côté, Margrethe Vestager estimait lundi 8 mai que l’IA Act devrait être « adopté d'ici à la fin de l’année ».

Drapeau de l'Union européenne. // Source : Canva

Quels systèmes seraient interdits ?

Dans le projet de règlement d’avril 2021, certaines IA seront purement et simplement interdites. Sont concernés :

Quels systèmes seraient permis sous conditions ?

Ces IA, classifiées comme très risquées, seront autorisées sous réserve de contrôles effectués par des agences nationales. Ces audits seront menés par des tiers indépendants. 

En France, la période des Jeux Olympiques sera par ailleurs l’occasion d’expérimenter la vidéosurveillance algorithmique, qui exploite des technologies d’intelligence artificielle. La période de test s’étendra sur six mois, jusqu’en mars 2025.

Ces systèmes devront être assortis d’obligations de transparence spécifiques, en l'occurrence, un avertissement sur le fait que leur contenu est « généré par des moyens automatisés ». Le logiciel Midjourney a ainsi déjà fait polémique après que les fausses images d’actualité qu’il a généré aient été prises à tort par certains internautes pour de réels clichés

« Dans cette nouvelle régulation, et on est les premiers à le faire, tout ce qui sera généré par des intelligences artificielles, que ce soit des textes (tout le monde connaît maintenant ChatGPT) ou des images, [comportera] une obligation de signifier [que cela] a été fait par une intelligence artificielle », affirmait début avril le commissaire européen au Marché de l’intérieur Thierry Breton début avril sur FranceinfoLes moyens concrets de tracer les productions d’IA n’ont cependant pas encore été précisés.  

Si ChatGPT pourrait correspondre à plusieurs de ces catégories d’IA, le secrétaire d’État au numérique Jean-Noël Barrot a déjà assuré ne pas souhaiter l’interdire, comme plusieurs pays européens l’ont déjà tenté. Le comité national d’éthique doit rendre son avis d'ici à quelques mois au sujet du chatbot.

Quels systèmes seraient autorisés sans réserve ?

Quelles mesures pour favoriser l'innovation ?

Le texte cherche aussi à stimuler l’innovation en permettant la création de « bacs à sable réglementaires », c’est-à-dire d’environnements contrôlés qui serviront à essayer de nouvelles technologies durant un temps limité.

Quelle protections spécifiques sur les IA génératives ?

Parmi les amendements ajoutés au texte qui sera voté ce jeudi, une disposition imposera que toutes les IA génératives comme ChatGPT, Midjourney et DALL-E divulguent quels contenus protégés par des droits d’auteurs elles ont utilisés pour entraîner leur modèle de langage

La question du copyright du matériel d’entraînement est déjà au cœur de plusieurs conflits juridiques. Ainsi, en début d’année, on apprenait que la banque d’images Getty Images avait porté plainte contre l’entreprise Stability AI pour avoir recouru à son catalogue pour mettre au point son IA Stable Diffusion.

Les modèles d’IA génératives devront aussi être testés pour atténuer les risques prévisibles concernant la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et la loi, en impliquant des experts indépendants, rapporte Computerworld.comLes dangers non évitables devront être décrits dans une documentation précise. On peut, par exemple, penser à l’utilisation de ChatGPT pour écrire du code malicieux qui pourrait ensuite être utilisé dans des attaques informatiques ou autre acte illégal.

Afin d'explorer en profondeur le monde fascinant des IA, Numerama a imaginé une nouvelle newsletter gratuite : ArtificiellesUn projet conçu par intelligence artificielle et vérifié par Numerama, auquel vous pouvez vous abonner à l'aide du formulaire ci-dessous.