DeepMind, la filiale d'Alphabet (Google) dédiée à l'intelligence artificielle, a annoncé la création d'une section dédiée à l'éthique de l'IA. Elle doit s'assurer que son travail n'entraîne pas des dérives, redoutées dans le secteur.

Les propos remarqués d’Elon Musk sur les dangers de l’intelligence artificielle , qu’il considère comme la « plus grande menace [pesant] sur notre civilisation », ont-ils inspiré DeepMind ? La filiale d’Alphabet (Google) dédiée à l’IA — et connue pour sa domination sur l’homme au jeu de go — vient en tout cas d’ouvrir, ce mardi 3 octobre, une section dédiée censée permettre à ses équipes de « respecter l’éthique en pratique, et d’aider la société à anticiper et orienter l’impact de l’IA afin qu’elle œuvre au bien de tous ».

Dans son annonce, DeepMind précise : « Comme l’a prouvé l’histoire, l’innovation technologique ne garantit en rien un plus grand progrès social. Le développement de l’IA entraîne des questions importantes et complexes. Son impact sur la société — et sur l’ensemble de nos vies — ne devrait pas être laissé au hasard. En tant que scientifiques qui travaillent sur le sujet, nous avons la responsabilité de mener et de soutenir les recherches sur les conséquences à plus large échelle de notre œuvre. »

DeepMind Ethics & Society veillera donc sur ces questions à l’aide notamment de spécialistes venus du monde universitaire ou caritatif. Certaines dérives de l’IA ont déjà pu être constatées, notamment auprès d’intelligences artificielles qui travaillent sur le langage et héritent de nos préjugés sexistes et racistes.

Une initiative parmi d’autres

Avant son rachat par Google, en 2014, DeepMind s’était vu promettre la création d’un conseil d’éthique qui a été formé en janvier 2016 mais dont on sait très peu de chose — à commencer par les noms de ses membres, la régularité de leurs rencontres et leurs sujets de discussion.

Cette annonce est-elle un moyen pour DeepMind de faire oublier ses récents ennuis au Royaume-Uni ? Le service a récemment fait scandale pour la récolte de données médicales de patients londoniens, organisée en partenariat avec les hôpitaux de la capitale, qui enfreint la loi, selon la Cnil britannique.

Elon Musk, fondateur du collectif OpenAI, censé s’assurer que le développement de l’IA soit le plus profitable à l’humanité, a quant à lui relancé le débat sur le sujet en évoquant les peurs que lui inspirent les dérives d’une IA échappant au contrôle de l’homme comme la course engagée dans ce domaine. Des propos jugés trop alarmistes voire «  irresponsables » par plusieurs spécialistes.

Parallèlement, ces dernières années, d’autres initiatives ont vu le jour pour établir des « barrières » encadrant l’intelligence artificielle, à l’instar des 23 principes d’Asilomar.

Partager sur les réseaux sociaux