Les eurodéputés souhaitent exclure davantage de pratiques autour de l’intelligence artificielle, qui sont trop dangereuses pour les libertés.

Dans Minority Report, roman de Philip K. Dick, des mutants ont le don de précognition. Celui-ci est utilisé par un organisme pour anticiper les crimes avant qu’ils ne surviennent, ce qui soulève des réflexions sur le droit, la responsabilité ou le libre arbitre. La police prédictive par IA se rapproche un peu de cette vision dystopique.

L’Union européenne ne deviendra pas une société comme celle dépeinte dans Minority Report. C’est en tout cas le souhait des parlementaires du Vieux Continent qui ont adopté mercredi 14 juin une version renforcée de la future législation sur l’intelligence artificielle. Et c’est la position que le Parlement européen défendra face au Conseil, qui représente les États membres.

Précisément, les députés considèrent à une large majorité (le texte a été approuvé par 499 voix pour et 28 contre, et 93 abstentions) que les systèmes de police prédictive (fondés sur le profilage, la localisation ou le comportement criminel passé) entrent dans la catégorie de l’IA dite inacceptable, car faisant peser un risque trop grand sur les personnes.

En conséquence, ces dispositifs sont à bannir du territoire de l’Union. Les députés ne se sont pas arrêtés à ce cas de figure : les élus soutiennent aussi l’exclusion d’autres usages controversés de l’IA, en plus de ceux qui étaient déjà mis à l’index par la Commission européenne dans la première version du règlement sur l’intelligence artificielle.

Les autres interdictions ajoutées par le Parlement incluent :

  • les systèmes d’identification biométrique à distance en temps réel et a posteriori dans des espaces accessibles au public ;
  • les systèmes d’identification biométrique utilisant des caractéristiques sensibles (le genre, la race, l’origine ethnique, le statut de citoyen, la religion, l’orientation politique, etc.) ;
  • les systèmes de reconnaissance des émotions utilisés dans les services répressifs, la gestion des frontières, le lieu de travail et les établissements d’enseignement ;
  • la saisie non ciblée d’images faciales provenant d’Internet ou de séquences de vidéosurveillance en vue de créer des bases de données de reconnaissance faciale.
reconnaissance faciale
Plusieurs systèmes fondés sur la biométrique sont aussi à exclure. // Source : Minority Report

Cette liste d’interdiction n’est pas exhaustive. Surtout, elle complète celles de la Commission européenne, comme la notation sociale — un système qui aboutit à une classification des individus selon leur comportement en société ou en fonction de leurs caractéristiques (par exemple, leur endettement). Le Parlement avait déjà exprimé son hostilité pour ce mécanisme.

Ces interdictions complémentaires reflètent en partie l’actualité récente. Ainsi, la « saisie non ciblée d’images faciales provenant d’Internet […] en vue de créer des bases de données de reconnaissance faciale » renvoie à la polémique autour de la société américaine Clearview AI, qui a aspiré des milliards de photos sur le net, sans aucune permission, pour affiner sa reconnaissance faciale.

Réguler l’IA selon le niveau de risque

L’AI Act — nom donné à la future réglementation européenne — entend encadrer le développement de l’intelligence artificielle autour de la notion de niveau de risque : il s’agit de classer les outils selon leur effet nocif sur les personnes, sur une échelle comprenant quatre niveaux (minime, limité, élevé et inacceptable). Plus le niveau est haut, plus l’encadrement est fort.

Reste que la construction législative du texte n’est pas terminée. Si les députés ont adopté leur position le 14 juin, il leur faut entrer dans un cycle de négociation avec le Conseil et la Commission. Une séquence qui pourrait conduire à des retouches à la marge, en apparence anodine, mais pouvant conduire à l’inscription d’exceptions à l’IA inacceptable, au nom de la sécurité.

Au-delà des systèmes jugés inacceptables, l’AI Act entend aussi traiter du cas très médiatique de l’IA générative — catégorie incarnée par ChatGPT dans l’écrit et Midjourney dans l’image. Là aussi, le Vieux Continent souhaite mettre de l’ordre (et mettre le marché au pas). Entre autres choses, l’Europe exige que chaque création de l’IA soit identifiée comme telle.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !