La Commission européenne annonce une phase pilote pour tester ses lignes directrices concernant l'intelligence artificielle éthique.

De la théorie à la pratique. En décembre 2018, le groupe d’experts de haut niveau publiait une première version de ses lignes directrices sur l’éthique en matière d’intelligence artificielle. Après une phase de consultation qui a servi à recueillir des remarques additionnelles, il est désormais temps de passer à l’étape d’après, celle de l’expérimentation.

La Commission européenne vient en effet d’annoncer une « phase pilote », lancée le 8 avril, pour que ces fameuses lignes directrices sur l’IA éthique « puissent être mises en œuvre dans la pratique ». Cette procédure est ouverte à l’industrie, aux instituts de recherche et aux autorités publiques. Cette phase pilote doit s’étendre jusqu’en 2020, qui se conclura avec un bilan établi par le groupe d’experts.

Une représentation d’un arbre de décision, méthode qui peut servir dans l’intelligence artificielle.

Sept principes pour une IA éthique

L’aboutissement à une intelligence artificielle éthique requiert sept principes, que la Commission européenne rappelle ci-après :

  • Facteur humain et contrôle humain  : les systèmes d’IA devraient être les vecteurs de sociétés équitables en se mettant au service de l’humain et des droits fondamentaux, sans restreindre ou dévoyer l’autonomie humaine.
  • Robustesse et sécurité  : une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d’IA.
  • Respect de la vie privée et gouvernance des données : il faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires.
  • Transparence : la traçabilité des systèmes d’IA doit être assurée.
  • Diversité, non-discrimination et équité : les systèmes d’IA devraient prendre en compte tout l’éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie.
  • Bien-être sociétal et environnemental : les systèmes d’IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique.
  • Responsabilisation : il convient de mettre en place des mécanismes pour garantir la responsabilité à l’égard des systèmes d’IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.

À la suite de ce travail, et en fonction des conclusions qui pourront en être tirées, des étapes supplémentaires pourront être décidées par la Commission européenne.

Autres initiatives dans les tuyaux

Plusieurs autres rendez-vous sont prévus en 2019 et 2020 au sujet de l’éthique et de l’intelligence artificielle. En juin, le groupe d’experts produira un autre travail, centré cette fois sur les recommandations en matière de politique, de régulation et d’investissement. Puis, d’ici cet automne, la Commission européenne donnera le coup d’envoi de plusieurs initiatives.

Cela va de la mise en place d’un réseau de centres d’excellence en matière d’intelligence artificielle à la création de pôles d’innovation numérique, en passant par des discussions avec toutes les parties concernées pour « concevoir et mettre en œuvre un modèle de partage des données et d’utilisation optimale des espaces de données communs », est-il écrit dans le communiqué bruxellois.

À lire sur Numerama : AI4EU  : face à la Chine et aux USA, l’Europe dévoile une plateforme pour la recherche en IA

Partager sur les réseaux sociaux