Mercredi 28 mars, le député LREM Cédric Villani a rendu son rapport sur l'intelligence artificielle. Pour lui, il est crucial de définir une éthique, notamment pour prévenir les nombreuses discriminations dont une IA peut se rendre coupable.

Mercredi 28 mars, le député de La République en marche (LREM) de l’Essonne Cédric Villani a rendu son très attendu rapport sur l’intelligence artificielle (IA), commandé par le gouvernement en septembre 2017. Un document riche en précautions et pistes à suivre, notamment en ce qui concerne l’aspect éthique des intelligences artificielles. On fait le point.

Lutter contre « les boîtes noires »

«  Une société algorithmique ne doit pas être une société de boîtes noires  »Pour le mathématicien, il est nécessaire d’expliquer les algorithmes d’apprentissage automatiqueIl est en effet parfois délicat pour un concepteur d’expliquer un résultat obtenu et de justifier le cheminement logique de l’analyse de données opérée par le système d’intelligence artificielle qu’il a pourtant lui-même créé.

Chose qui cause particulièrement souci lorsqu’il faut enquêter sur une prise de décision algorithmique (au hasard, le récent accident d’un véhicule autonome Uber…). « Parallèlement, il faut s’assurer que les organisations qui déploient et utilisent ces systèmes demeurent responsables devant la loi des éventuels dommages causés par ceux-ci  », précise le député.

Ses notes stipulent qu’il faut davantage investir dans cette « explicabilité » comme champ de recherche qui doit d’ailleurs être soutenue par les instances publiques. Est également envisagée la création d’un groupe d’experts en la matière capables d’épauler la justice et les différentes administrations en cas de besoin.

Toujours selon le rapport, l’éthique et le développement doivent être intrinsèquement liés, et ce dès la conception logicielle. Pour ce faire, l’homme de science insiste sur l’importance de l’intégration de la dimension éthique dès l’enseignement en informatique, quasiment absente des programmes actuels. Et ses conseils axés sur la scolarité ne s’arrêtent pas là.

Réduire les inégalités dès le cursus scolaire

« L’IA ne peut pas être une nouvelle machine à exclure », écrit le député. Capable de reproduire différentes formes de discrimination comme le racisme ou le sexisme, l’IA inquiète. Et Cédric Villani accuse le manque de mixité dans les programmes scolaires, et tout logiquement dans les équipes de recherche par la suite. En ce qui concerne les femmes, les chiffres parlent d’eux-mêmes : elles ne sont que 10 % dans les écoles d’ingénieur en informatique.

Une sous-représentation criante que nous soulevions déjà dans notre enquête « Les intelligences artificielles sont-elles sexistes ? » ; où il apparaissait que le manque de mixité dans les équipes n’était pas sans incidence sur la représentation caricaturale des robots dotés de traits féminins, pour ne citer qu’un exemple. «  Ce manque de diversité peut conduire les algorithmes à reproduire des biais  », indique le rapport, où il est recommandé d’instaurer une «  politique incitative  », qui permettrait d’atteindre un taux de 40 % d’étudiantes d’ici 2020. Cette politique d’incitation positive récompenserait les écoles et universités qui parviennent à atteindre l’objectif « par une labellisation ou une subvention ».

« L’IA ne peut pas être une nouvelle machine à exclure »

Dans la même veine, le député explique vouloir instaurer « une plateforme qui permettrait de centraliser les pédagogies innovantes et ses règles au sein d’une seule et même base de données. Ce projet se ferait dans la continuité d’Expérithèque, une plateforme mise en place par le ministère de l’Éducation nationale qui recense d’ores et déjà les innovations pédagogiques en France.  » Le rapport cite en exemple de réussite La Grande École du numérique et la Web@cadmie pour son programme « Ambition féminine ».

Toujours dans le registre des discriminations susceptible d’être exercées par une IA le rapport amène l’idée de mener des études d’impact sur des cas de figure précis (dans le domaine policier, de la justice, de l’emploi, etc.).

La mise en place d’un comité d’éthique

De manière plus globale, le mathématicien conseille la mise en place d’un comité d’éthique pour les technologies numériques et l’intelligence artificielle, qui organisera le débat public et sera force de propositions «  en toute indépendance  ». Une instance qui emprunterait beaucoup au Comité consultatif national d’éthique (CCNE) pour la science de la vie et de santé, ainsi qu’au modèle germanique. « Nous pourrions à ce titre nous inspirer de l’Allemagne, qui a mis sur pied une commission d’éthique chargée de statuer spécifiquement sur les véhicules autonomes. Elle pourrait être saisie par le gouvernement, le président de la République, les établissements d’enseignement ou par elle-même. »

Ces propositions faites, ne reste plus qu’à attendre ce que l’exécutif va retenir. Réponse ce 29 mars après-midi où, à l’occasion du sommet sur l’IA organisé au Collège de France à Paris, Emmanuel Macron présentera ses projets pour l’intelligence artificielle.

Partager sur les réseaux sociaux