2 000 signataires, dont l’astrophysicien Stephen Hawking et Elon Musk, patron de SpaceX, ont adopté un guide de référence pour un développement éthique de l’intelligence artificielle. Ces « 23 principes d’Asilomar » ne sont pas sans rappeler les 3 lois de la robotique de l’écrivain Isaac Asimov.

« Parvenir à créer des intelligences artificielles serait le plus grand accomplissement de l’histoire humaine. Malheureusement, il pourrait aussi s’agir du dernier, à moins que nous apprenions à éviter les risques. » L’avertissement lancé en 2014 par l’astrophysicien britannique Stephen Hawking était probablement présent à l’esprit des participants au séminaire Beneficial AI organisé par le Future of Life Institute (FLI, institut pour le futur de la vie) à Asilomar, en Californie, début janvier.

Si les initiatives et les collectifs se multiplient ces derniers temps en faveur d’un développement éthique de l’intelligence artificielle (IA), ces réflexions dispersées n’ont pas encore abouti à un guide commun en la matière. Le FLI espère combler ce manque grâce à ses « 23 principes d’Asilomar » adoptés pendant ces jours de réflexion collective. À ce stade, ils ont été signés par 816 scientifiques spécialisés dans l’intelligence artificielle ou la robotique et 1 200 signataires d’horizons variés, dont des personnalités de renom comme Stephen Hawking ou Elon Musk, le patron de SpaceX et Tesla, qui a participé aux débats.

Future of Life Institute

Future of Life Institute

Un guide éthique et pratique

Pour établir ce guide à portée universelle, les scientifiques se sont notamment basés sur les précédents travaux et engagements en la matière, des rapports de la Maison Blanche à celui de l’université Stanford en passant par les propositions des industriels comme Apple et Google, membres du collectif Partnership on AI. Ils y ont trouvé des idées directrices, des éléments communs ou divergents, et en ont tiré une vision d’ensemble simplifiée qu’ils ont ensuite soumise aux participants pour validation.

Ces 23 principes ont tous obtenu au moins 90 % d’approbation de la part des spécialistes présents  :

  • 1) Objectif de ces recherches : Le développement de l’IA ne doit pas servir à créer une intelligence sans contrôle mais une intelligence bénéfique.
  • 2) Investissements : Les investissements dans l’IA doivent être soutenus par le financement de recherches visant à s’assurer de son usage bénéfique, qui prend en compte des questions épineuses en matière d’informatique, d’économie, de loi, d’éthique et de sciences sociales.
    [Quelques exemples : « Comment rendre les futures IA suffisamment solides pour qu’elles fassent ce qu’on leur demande sans dysfonctionnement ou risque d’être piratées ? » ou encore « Comment améliorer notre prospérité grâce à cette automatisation tout en maintenant les effectifs humains ?  »]
  • 3) Relations entre les scientifiques et les législateurs : Un échange constructif entre les développeurs d’IA et les législateurs est souhaitable.
  • 4) Esprit de la recherche : Un esprit de coopération, de confiance et de transparence devrait être entretenu entre les chercheurs et les scientifiques en charge de l’IA.
  • 5) Éviter une course : Les équipes qui travaillent sur les IA sont encouragées à coopérer pour éviter des raccourcis en matière de standards de sécurité.
  • 6) Sécurité : Les IA devraient être sécurisées tout au long de leur existence, une caractéristique vérifiable et applicable.
  • 7) Transparence en cas de problème : Dans le cas d’une blessure provoquée par une IA, il est nécessaire d’en trouver la cause.
  • 8) Transparence judiciaire : Toute implication d’un système autonome dans une décision judiciaire devrait être accompagnée d’une explication satisfaisante contrôlable par un humain.
  • 9) Responsabilité : Les concepteurs et les constructeurs d’IA avancées sont les premiers concernés par les conséquences morales de leurs utilisations, détournements  et agissements. Ils doivent donc assumer la charge de les influencer.
  • 10) Concordance de valeurs : Les IA autonomes devraient être conçues de façon à ce que leurs objectifs et leur comportement s’avèrent conformes aux valeurs humaines.
  • 11) Valeurs humaines : Les IA doivent être conçues et fonctionner en accord avec les idéaux de la dignité, des droits et des libertés de l’homme, ainsi que de la diversité culturelle.
  • 12) Données personnelles : Chacun devrait avoir le droit d’accéder et de gérer les données le concernant au vu de la capacité des IA à analyser et utiliser ces données.
  • 13) Liberté et vie privée : L’utilisation d’IA en matière de données personnelles ne doit pas rogner sur les libertés réelles ou perçue des citoyens.
  • 14) Bénéfice collectif : Les IA devraient bénéficier au plus de gens possible et les valoriser.
  • 15) Prospérité partagée : La prospérité économique permise par les IA devrait être partagée au plus grand nombre, pour le bien de l’humanité.
  • 16) Contrôle humain : Les humains devraient pouvoir choisir comment et s’ils veulent reléguer des décisions de leur choix aux AI.
  • 17) Anti-renversement : Le pouvoir obtenu en contrôlant des IA très avancées devrait être soumis au respect et à l’amélioration des processus civiques dont dépend le bien-être de la société plutôt qu’à leur détournement.
  • 18) Course aux IA d’armement : Une course aux IA d’armement mortelles est à éviter.
  • 19) Avertissement sur les capacités : En l’absence de consensus sur le sujet, il est recommandé d’éviter les hypothèses au sujet des capacités maximum des futures IA.
  • 20) Importance : Les IA avancées pourraient entraîner un changement drastique dans l’histoire de la vie sur Terre, et doit donc être gérée avec un soin et des moyens considérables.
  • 21) Risques : Les risques causés par les IA, particulièrement les catastrophiques ou existentiels, sont sujets à des efforts de préparation et d’atténuation adaptés à leur impact supposé.
  • 22) Auto-développement infini : Les IA conçues pour s’auto-développer à l’infini ou s’auto-reproduire, au risque de devenir très nombreuses ou très avancées rapidement, doivent faire l’objet d’un contrôle de sécurité rigoureux.
  • 23) Bien commun : Les intelligences surdéveloppées devraient seulement être développées pour contribuer à des idéaux éthiques partagés par le plus grand nombre et pour le bien de l’humanité plutôt que pour un État ou une entreprise.
isaac asimov

Portrait mural d’Isaac ASimov — CC Thierry Ehrmann

Dans la lignée des 3 lois de la robotique d’Asimov

Ces 23 principes ne sont pas sans rappeler les fameuses 3 lois de la robotique créées par l’écrivain Isaac Asimov,  maître de la science-fiction, dans les années 1940. Chacune répond à la précédente : « un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ; un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ; un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi. »

Reste à savoir si ces 23 principes seront suivis par les concepteurs concernés afin d’éviter les scénarios catastrophe liés à l’émergence des intelligences artificielles, un thème particulièrement porteur dans la fiction.


Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !