La Commission européenne prépare un encadrement législatif de l'intelligence artificielle. Elle propose notamment de définir quatre niveaux de risques.

Les réflexions lancées par la Commission européenne depuis trois ans sur l’éthique en matière d’intelligence artificielle sont sur le point d’avoir une traduction juridique. Dans un communiqué paru le 21 avril, Bruxelles annonce un projet de règlement sur l’IA pour qu’elle soit « digne de confiance » et, surtout, conforme aux valeurs et règles de l’Union européenne.

Ce nouveau cadre, qui doit maintenant être adopté par le Parlement européen et les États membres, pourra, le cas échéant, être directement appliqué dans l’ensemble de l’UE. L’enjeu est d’importance, pour ne pas dire stratégique : l’Europe sait qu’elle fait face à deux grands rivaux, avec les États-Unis et la Chine. Or, leur approche dans l’IA ne correspond pas toujours à la vision du Vieux Continent.

D’où l’intention d’emprunter une voie qui lui est propre.  À cette fin, des experts ont été sollicités dès 2018 pour réfléchir aux effets potentiellement indésirables des avancées techniques sur les droits fondamentaux. Ces spécialistes ont ainsi produit des lignes directrices permettant, en théorie, de construire une IA digne de confiance. Par la suite, en 2019, sept grands principes ont été dégagés.

robot
Je viens en paix, humain. // Source : Commission européenne

Ces règles doivent aussi être l’occasion pour l’Union européenne de jouer de son influence à l’international, à l’image du RGPD qui a été une source d’inspiration ailleurs dans le monde. « En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l’UE », argue ainsi Margrethe Vestager, la vice-présidente de la Commission.

Le fait est, néanmoins, que l’intelligence artificielle est un concept très large dans lequel on peut pratiquement mettre tout et n’importe quoi. Le terme lui-même est contesté dans son usage actuel, car il n’y a pas à proprement parler d’intelligence artificielle vraiment opérationnelle. Ce sont des traitements algorithmiques, parfois très poussés, mais qui n’ont aucune conscience de soi.

Viendra peut-être le jour où une vraie IA, semblable à une intelligence humaine, émergera. En attendant, l’Union européenne s’emploie déjà à encadrer les développements actuels, car toutes les applications utilisant de l’IA, ou plus exactement des algorithmes de pointe, ne posent pas les mêmes problématiques. C’est pour cela que le règlement propose de les classer par niveau de risque.

Quatre niveaux de risque avec l’IA

Il existe quatre niveaux de risque dans le projet de règlement : minime, limité, élevé et inacceptable. De fait, l’intitulé du quatrième échelon est clair : pas question d’autoriser des usages inacceptables en IA au sein de l’Union. Les trois autres, par contre, peuvent être mis en œuvre. Seulement, la rigueur des obligations ne sera pas la même entre un usage jugé peu risqué et un autre très critique.

Tout l’enjeu sera de s’accorder sur un protocole objectif pour qualifier le niveau de risque de tel ou tel système d’IA — des désaccords pourraient ainsi apparaître entre des ONG de la société civile, des industriels et des politiques sur l’appréciation du danger. Pour donner une idée de ce que l’on peut retrouver dans tel ou tel échelon, la Commission livre toutefois quelques exemples.

Un usage inacceptable regroupe des systèmes de notation sociale par les États, à l’image de ce qui se fait en Chine, et des jouets dotés d’un assistant vocal poussant des mineurs à avoir un comportement dangereux. Sont aussi inclus ce qui manipule le comportement humain ou abolit le libre arbitre, et ce qui est une « menace évidente » pour la sécurité, les droits des personnes et les moyens de subsistance.

Dans l’UE, les systèmes de notation sociale entrent dans la catégorie des usages inacceptables. // Source : Capture d’écran Black Mirror/Netflix

Pour ce qui relève du niveau élevé, on trouve tout ce qui touche aux infrastructures critiques, l’éducation et la formation professionnelle, le maintien de l’ordre, les services publics et privés jugés essentiels, la santé, les sujets d’asile, de migration et de contrôle aux frontières, la justice, le marché du travail et la démocratie. Leur utilisation sera possible, si les systèmes satisfont des critères spécifiques.

Ces conditions incluent un enregistrement des activités de ces systèmes d’IA pour garder une trace de leurs actions, une documentation détaillée pour comprendre ce qu’ils font, pourquoi et de quelle façon, un haut degré de sécurité, d’exactitude et de robustesse, des données de qualité (pour éviter notamment les discriminations), des leviers d’atténuation en cas de souci et, malgré tout, un contrôle humain.

Quels sont les cas d’usage présentant un risque élevé ?  Bruxelles mentionne un logiciel triant automatiquement les CV pour présélectionner des candidatures, un système qui a accès à des mécanismes pouvant mettre en péril la santé ou la vie (les transports ou bien la chirurgie assistée par robot), la notation d’épreuves d’examens, l’évaluation du risque de crédit pour obtenir un prêt, ou encore la biométrie.

Pour ce dernier exemple, la Commission observe que « leur utilisation en temps réel dans l’espace public aux fins du maintien de l’ordre est en principe interdit », sauf dans des cas limités, comme la recherche d’un enfant disparu ou la prévention d’une menace terroriste. Cet usage doit être autorisé par l’ordre judiciaire ou un organisme indépendant du pouvoir, et être limité dans le temps et dans l’espace.

da Vinci chirurgie
La chirurgie assistée par la robotique est possible, mais doit être très encadrée. // Source : Roswell Park

Un cran en dessous, on trouve le risque limité. Ici, Bruxelles considère que le principal enjeu est la transparence auprès du public. « Lorsqu’ils utilisent des systèmes d’IA, les utilisateurs doivent savoir qu’ils interagissent avec une machine afin de pouvoir décider en connaissance de cause de poursuivre ou non ». Dans cette catégorie tombent les chatbots, des agents conversationnels automatiques.

Enfin, le risque minime est censé regrouper « la grande majorité des systèmes d’IA ». Ici, la Commission européenne dit ne proposer aucun encadrement particulier, car les outils qui tombent dans cette catégorie constituent une menace proche de zéro pour les droits et la sécurité. Deux exemples sont donnés par l’UE : les jeux vidéo, avec l’IA pour animer les ennemis, ou encore les filtres contre le spam.

Partager sur les réseaux sociaux

La suite en vidéo