Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Les « 23 principes d'Asilomar » veulent encadrer le développement de l'intelligence artificielle

2 000 signataires, dont l'astrophysicien Stephen Hawking et Elon Musk, patron de SpaceX, ont adopté un guide de référence pour un développement éthique de l'intelligence artificielle. Ces « 23 principes d'Asilomar » ne sont pas sans rappeler les 3 lois de la robotique de l'écrivain Isaac Asimov.

« Parvenir à créer des intelligences artificielles serait le plus grand accomplissement de l'histoire humaine. Malheureusement, il pourrait aussi s'agir du dernier, à moins que nous apprenions à éviter les risques. » L'avertissement lancé en 2014 par l'astrophysicien britannique Stephen Hawking était probablement présent à l'esprit des participants au séminaire Beneficial AI organisé par le Future of Life Institute (FLI, institut pour le futur de la vie) à Asilomar, en Californie, début janvier.

Si les initiatives et les collectifs se multiplient ces derniers temps en faveur d'un développement éthique de l'intelligence artificielle (IA), ces réflexions dispersées n'ont pas encore abouti à un guide commun en la matière. Le FLI espère combler ce manque grâce à ses « 23 principes d'Asilomar » adoptés pendant ces jours de réflexion collective. À ce stade, ils ont été signés par 816 scientifiques spécialisés dans l'intelligence artificielle ou la robotique et 1 200 signataires d'horizons variés, dont des personnalités de renom comme Stephen Hawking ou Elon Musk, le patron de SpaceX et Tesla, qui a participé aux débats.

Un guide éthique et pratique

Pour établir ce guide à portée universelle, les scientifiques se sont notamment basés sur les précédents travaux et engagements en la matière, des rapports de la Maison Blanche à celui de l'université Stanford en passant par les propositions des industriels comme Apple et Google, membres du collectif Partnership on AIIls y ont trouvé des idées directrices, des éléments communs ou divergents, et en ont tiré une vision d'ensemble simplifiée qu'ils ont ensuite soumise aux participants pour validation.

Ces 23 principes ont tous obtenu au moins 90 % d'approbation de la part des spécialistes présents  :

Dans la lignée des 3 lois de la robotique d'Asimov

Ces 23 principes ne sont pas sans rappeler les fameuses 3 lois de la robotique créées par l'écrivain Isaac Asimov,  maître de la science-fiction, dans les années 1940. Chacune répond à la précédente : « un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ; un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ; un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi. »

Reste à savoir si ces 23 principes seront suivis par les concepteurs concernés afin d'éviter les scénarios catastrophe liés à l'émergence des intelligences artificielles, un thème particulièrement porteur dans la fiction.