Un spécialiste en intelligence artificielle propose trois nouvelles recommandations pour réguler les systèmes d'IA.

Quelles règles faut-il mettre en place pour réguler l’intelligence artificielle et donc les machines qui en bénéficieront tôt ou tard ? À cette question essentielle, il est souvent rétorqué de suivre les fameuses trois lois de la robotique imaginées au milieu du 20e siècle par l’écrivain de science-fiction Isaac Asimov. Vous les connaissez sans doute. Chacune complète la précédente :

  • un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
  • un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la première loi ;
  • un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.

Ce corpus, s’il constitue une bonne base de travail pour encadrer le développement de l’IA, n’est toutefois pas suffisant. La preuve : le romancier a imaginé par la suite une quatrième loi qui expose qu’un robot ne peut porter atteinte à l’humanité dans son ensemble, même pour protéger un être humain : un robot ne peut ni nuire à l’humanité ni, restant passif, permettre que l’humanité souffre d’un mal.

Depuis les années 50, nombreuses ont été les propositions pour compléter le cadre posé par Isaac Asimov. La contribution la plus significative qui est apparue ces derniers temps est la liste des « 23 principes d’Asilomar » visant à proposer un guide de référence pour un développement éthique de l’IA. Plus de 1 200 experts ont approuvé ces principes ainsi que 2 342 spécialistes d’horizons divers.

À ces contributions vient s’ajouter celle d’Oren Etzioni, le patron de l’institut Allen pour l’IA. Dans une tribune publiée au début du mois de septembre dans le New York Times, il avance trois recommandations pour réguler le développement de l’intelligence artificielle, puisqu’il est désormais trop tard pour tout arrêter : « le cheval a fini par quitter son enclos, et notre meilleure chance est d’essayer de le diriger ».

oren-etzioni
Oren Etzioni.
CC Bret Hartman/TED

La première règle est qu’un système d’IA doit se soumettre aux lois qui s’appliquent à son opérateur humain. « Nous ne voulons pas d’une IA qui puisse se livrer à de l’intimidation en ligne, à de la manipulation boursière ou à des menaces terroristes. […] Nous ne voulons pas de véhicules autonomes qui passent au feu rouge ou, pire, d’armes autonomes violant les traités internationaux », explique-t-il.

La deuxième règle est qu’un système d’IA doit clairement révéler qu’il n’est pas humain. Il s’agit « de s’assurer que les gens savent quand un robot se fait passer pour quelqu’un », écrit-il, en citant notamment le cas d’un bot avec lequel des supporteurs de Donald Trump débattaient sans le savoir avec un logiciel. C’est d’autant plus nécessaire à l’heure où ces systèmes peuvent créer de fausses vidéos très crédibles.

feux-circulation
CC Tim Gouw

La dernière règle dit qu’une IA ne peut pas garder ou divulguer des données confidentielles sans l’accord explicite de l’individu qui en est la source. « En raison de leur capacité exceptionnelle à obtenir, enregistrer et analyser automatiquement des informations, les IA sont les mieux placées pour obtenir des infos confidentielles », écrit-il. Il fait ici référence aux objets connectés qui peuplent déjà les foyers, comme Echo.

« Pensez à toutes les conversations auxquelles Amazon Echo a accès ou aux informations que votre enfant peut divulguer par inadvertance à un jouet tel qu’une poupée Barbie [si elle a une fonction d’IA] . Même les robots de nettoyage ménager apparemment inoffensifs créent des cartes de votre maison. C’est le genre d’information que vous voulez vous assurer de contrôler », observe-t-il.

Oren Etzioni prévient toutefois : les trois recommandations qu’il formule n’ont pas la prétention de tout régler. Bien d’autres règles vont sans doute devoir être imaginées pour encadrer le développement de l’intelligence artificielle et éviter qu’elle fasse n’importe quoi. Ou que ceux et celles qui la développent avancent sans un certain nombre de consignes précises à respecter.

Partager sur les réseaux sociaux