L’Union européenne devrait se montrer plus clémente pour les modèles d’IA open source, par rapport à leurs homologues propriétaires. C’est en tout cas ce qui transparait d’un document de travail qui a fuité sur le futur règlement de l’AI Act.

L’intelligence artificielle open source devrait bénéficier d’un cadre législatif plus favorable que l’IA propriétaire, du moins au niveau européen. C’est en tout cas ce qui ressort des discussions en cours au sujet du futur règlement sur l’IA (AI Act). Une version du texte datée du 21 janvier 2024 a fuité, donnant des indications sur l’état des négociations.

On apprend dans ce document long de 892 pages que « les obligations prévues par le présent règlement ne s’appliquent pas aux systèmes d’IA diffusés sous licence libre et gratuite ». Une exemption assortie toutefois de quelques exceptions. L’AI Act s’appliquera bien aux modèles open source dans les cas où :

  • ils sont mis sur le marché ou mis en service en tant que système d’IA à haut risque ;
  • ils relèvent des titres II (pratiques interdites en matière d’IA) ou IV (obligations de transparence pour certains systèmes d’IA).
Le Parlement européen. // Source : Frederic Koberl
Le Parlement européen. // Source : Frederic Koberl

Ces dispositions, remarquées sur X (ex-Twitter) par Pierre-Carl Langlais, le directeur de la recherche chez Opsci.AI, proviennent d’un fichier PDF mis en ligne sur Google Drive par le journaliste Luca Bertuzzi. Une action justifiée « compte tenu de l’attention massive portée par le public », a-t-il écrit sur X le 21 janvier.

La proposition de règlement de l’IA, dévoilée par la Commission européenne le 21 avril 2021, ne contenait pas initialement de disposition explicite sur l’open source. Ces dernières avancées sont toutefois susceptibles d’évoluer, les négociations se poursuivant toujours. Le texte est censé entrer en vigueur au printemps 2024.

Une régulation par le degré de risque

Toute l’architecture de l’AI Act repose sur une approche consistant à faire une régulation par le risque. Selon le degré de « dangerosité » du système d’IA, des dispositions plus ou moins fortes sont prévues. Quatre seuils sont prévus : minimal ou nul, limité, élevé et inacceptable. Un système classé au niveau inacceptable sera interdit dans l’UE.

Dans le cas de l’open source, donc, on comprend que les modèles d’IA classés dans les deux premiers niveaux bénéficieront d’un cadre plus souple que les programmes fermés. À partir du troisième niveau, cependant, ces exceptions cessent. La régulation courante reprend ses droits, avec certaines obligations de transparence, entre autres.

L’AI Act prévoit quatre niveaux de risque : minimal, limité, élevé et inacceptable

L’open source constitue par nature un critère de transparence, puisque cela a pour effet d’exposer le contenu du modèle d’intelligence artificielle à la vue de toutes et tous. En revanche, un modèle open source d’IA ne signifie pas forcément que sa formation avec les données a suivi ce même chemin. Des exigences demeurent en la matière.

Sur le papier, les projets ouverts et librement réutilisables comme Llama 2 de Meta (la maison mère de Facebook) ou les outils de la startup française Mistral AI (qui a diffusé en décembre un modèle de langage de 87 Go via BitTorrent) apparaissent favorisés par rapport à des solutions fermées, à l’image d’OpenAI (ChatGPT, Dall-E 3).

Les débats réglementaires autour des modèles open source et fermés reflètent les tensions idéologiques du secteur en plein boom. Deux visions s’opposent sur la façon de faire de l’IA et de piloter les modèles. Selon les études à ce sujet, les systèmes propriétaires sont encore devant leurs rivaux, mais l’écart se resserre de plus en plus.


Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.