Sundar Pichai, CEO de Google, a publié une liste de principes éthiques liés au développement de l'intelligence artificielle. L'entreprise de Mountain View s'engage désormais à les respecter.

Sergey Brin, le fondateur de Google, avait déjà tenu à souligner les « nouvelles responsabilités » et les questionnements éthiques liés au développements de l’IA. Le 7 juin 2018, le CEO de l’entreprise Sundar Pichai a rendu publics les nouveaux principes que Google s’engage à respecter dans ses travaux sur l’intelligence artificielle.

Ce n’est probablement pas un hasard du calendrier que Google ait choisi de publier ces sept principes maintenant : en effet, plusieurs employés de l’entreprise se sont récemment opposés à un partenariat entre Google et le gouvernement américain. Ils refusaient que la société offre son aide pour développer une IA dans le cadre d’un programme de surveillance militaire. Google a finalement décidé de ne pas reconduire ce contrat.

Sundar Pichai CC Steven Zimmerman

7 principes éthiques à suivre

Citant différentes applications de cette technologie — Google développe par exemple des algorithmes à des fins médicales ou dans le domaine de l’agriculture — , Sundar Pichai annonce sept principes qui doivent, selon lui, guider le développement de l’IA chez Google. « Ce ne sont pas des concepts théoriques ; ce sont des standards concrets qui guideront activement nos recherches et le développement de produits, et qui auront un impact sur nos décisions commerciales », écrit-il.

1- Être bénéfice socialement

Le premier principe évoqué par le CEO est que l’IA doit être « bénéfique socialement. » Sundar Pichai explique que Google ne devra développer ces technologiques que lorsque « les probables avantages globaux dépassent largement les risques et les inconvénients prévisibles. »

2- Eviter les impacts injustes sur les gens

Le dirigeant évoque ensuite la problématique des intelligences artificielles dont les calculs sont parfois faussés par des biais. « Nous cherchons à éviter les impacts injustes sur les individus, en particulier ceux qui sont liés à des caractéristiques sensibles comme la race (sic), l’origine ethnique, le sexe, la nationalité, le revenu, l’orientation sexuelle, les capacités et les convictions politiques ou religieuses », note Sundar Pichai.

3- Tester l’IA en toute sécurité

Le CEO pose comme troisième principe éthique de concevoir et tester les IA de manière sécurisée. « Dans les cas appropriés, nous testons les technologies d’IA dans des environnements aux ressources limitées, et surveillerons leur fonctionnement après le déploiement », anticipe le dirigeant.

4- Responsabilisation

Le quatrième prérequis évoqué par Sundar Pichai porte sur la responsabilisation : le CEO avance que les système d’IA développés par Google devront donner l’opportunité de faire des retours, et s’accompagner de ressources explicatives.

5- Transparence et contrôle des données

La confidentialité des données figure au cinquième rang de cette liste.  « Nous donnerons la possibilité d’exprimer un avis et un consentement, et encouragerons les architectures contenant des mesures de protection de la vie privée, et offrirons une transparence et un contrôle sur l’utilisation des données », énumère le CEO.

6- L’excellence scientifique

Sundar Pichai souligne ensuite l’exigence de scientificité, qui doit accompagner chaque outil d’intelligence artificielle : le CEO avance que son entreprise « aspire à des normes élevées d’excellence scientifique » pour faire progresser l’intelligence artificielle.

7- A chaque IA, son objectif

Enfin, le dirigeant termine ces sept principes avec celui de la limitation des usages de l’IA. Autrement dit, Google s’engage à éviter les usages nuisibles ou frauduleux des technologies développées, en définissant un objectif et une utilisation précises pour chaque intelligence artificielle.

Partager sur les réseaux sociaux