L'Agence européenne pour les droits fondamentaux a rendu un rapport qui traite de plusieurs problématiques éthiques liées à l'IA. Parmi ses préconisations figure la nécessité de soutenir la recherche sur les biais et les discriminations algorithmiques.

C’est un sujet qui irrigue depuis les colonnes des revues spécialisées, mais aussi des publications plus généralistes : les algorithmes d’intelligence artificielle sur lesquels repose un éventail de plus en plus grand de produits et services contiennent-ils des biais pouvant causer du tort ? Autrement dit, y a-t-il un risque de discrimination à cause d’une conception imparfaite du système ?

À l’heure où ces dispositifs de traitement automatisé investissent un nombre croissant de secteurs, ou sont susceptibles de l’être, ces problématiques soulèvent des enjeux éthiques critiques. En effet, un mauvais calibrage d’une intelligence artificielle pourrait avoir des effets néfastes dans des domaines aussi critiques que l’embauche, les services sociaux, la justice ou les traitements médicaux.

droits fondamentaux
L’Agence des droits fondamentaux de l’Union européenne plaide pour un développement de l’IA qui cadre avec les valeurs et les règles du Vieux Continent. // Source : Jean-Etienne Minh-Duy Poirrier

C’est pour cette raison que l’Agence des droits fondamentaux de l’Union européenne vient de demander le 13 décembre, dans son rapport « Bien préparer l’avenir : l’IA et les droits fondamentaux », une hausse des financements pour la recherche pour identifier et étudier les effets potentiellement discriminatoires de l’IA, afin que des actions en amont soient prises pour en limiter, ou annuler, les effets.

Il ne s’agit pas là de la seule recommandation de l’Agence des droits fondamentaux. Six grandes pistes sont avancées par ses services. Outre la question des biais, elle rappelle que chaque IA devrait :

  • respecter l’ensemble des droits fondamentaux,
  • faire l’objet d’une évaluation avant et pendant son utilisation,
  • être soumise à un système de supervision,
  • détailler les règles qu’elle suit sur la protection des données
  • et enfin laisser la possibilité à n’importe qui de contester ses décisions, de sorte d’avoir droit à une appréciation humaine en cas de désaccord.

« L’IA n’est pas infaillible, elle est créée par l’être humain, et les êtres humains peuvent faire des erreurs », a ainsi souligné Michael O’Flaherty, le directeur de l’Agence, ajoutant que « nous avons la possibilité de façonner une AI qui non seulement respecte nos droits humains et fondamentaux, mais qui les protège et les promeut également  », par la clarification des règles existantes.

« Les effets discriminatoires générés sur certains groupes sont, en pratique, très difficiles à contester pour les individus », observe le rapport

La Commission européenne n’a toutefois pas attendu le rapport de l’Agence pour lancer des travaux. Début 2018 par exemple, elle a désigné 52 spécialistes de l’IA pour l’assister dans la réflexion sur les problématiques éthiques et sociétales de cette discipline. Cette instance a rendu ses premiers travaux quelques mois plus tard. Bruxelles avait par ailleurs partagé sa vision sur une IA adaptée à la réalité européenne.

Les travaux conduits par l’Agence ont été nourris par des études dans six pays européens, dont la France, mais aussi en Finlande, en Estonie, en Espagne et aux Pays-Bas. Ces recherches ont permis d’illustrer des expériences tirées de cas d’utilisation et souligné la ligne parfois ténue entre ce qui relève d’un cas discriminatoire d’une distinction fondée sur des éléments factuels.

C’est ce que suggère par exemple le propos d’une entreprise française dans le rapport, qui n’est pas nommée : « Pour la discrimination, c’est compliqué, car certaines maladies sont plus présentes dans certains groupes ethniques. Les prévisions tiennent compte du caractère sexuel, ethnique, génétique. Mais ce n’est pas discriminatoire ni une violation des droits de l’homme. »

Le rapport d’ailleurs que les algorithmes d’apprentissage automatique ont pour but « de catégoriser, de classer et de séparer ». Cette distinction «  n’est pas en soi une mauvaise chose », poursuit le document, en citant le cas d’un prêt bancaire fondé sur les capacités financières des demandeurs. Ce qui est plus périlleux, c’est lorsque cela implique des attributs sensibles, comme le sexe, la religion ou l’ethnie.

L’IA qui peut aussi atténuer les biais humains

Mais à l’inverse, si le rapport aborde les risques de voir la discrimination être accentuée dans certaines circonstances, les algorithmes pourraient aussi l’atténuer, en corrigeant les a priori humains. « Dans certaines circonstances et dans certains domaines, l’utilisation d’algorithmes pourrait apporter une contribution positive en réduisant les préjugés et les stéréotypes », avance le rapport.

Celui-ci en continue en expliquant que « l’analyse de données algorithmiques peut produire des résultats susceptibles de dissiper les attitudes préjudiciables. Par exemple, la police prédictive pourrait, dans certains contextes, conduire à une police plus équitable et non discriminatoire en réduisant le recours à des jugements humains subjectifs ». En somme, l’IA pourrait aussi servir de correcteur à préjugés.

Il reste maintenant à la Commission, au Parlement et au Conseil européen de se saisir du sujet et d’envisager les suites à donner à ce rapport. Il est à noter que ce 14 décembre, la présidence allemande du Conseil de l’UE organise, avec l’Agence des droits fondamentaux, une conférence sur ce thème, intitulée L’IA à la manière européenne : protection des droits fondamentaux à l’ère de l’IA.

Partager sur les réseaux sociaux