La méthode Quixote présentée par deux chercheurs américains préconise de former les intelligences artificielles comme on éduque des enfants : en leur lisant des contes.

Éthique et morale sont des concepts suffisamment complexes pour avoir occupé la philosophie et la littérature du monde entier sur des centaines de milliers de pages. Savoir comment décider de distinguer le Bien du Mal, le bon du mauvais, l’acceptable du condamnable, bref, savoir comment se comporter est loin d’être une science exacte. Et cette définition fluctuante nous pose un nouveau problème à l’ère de robotique : comment apprendre à des machines qui pensent de manière absolue comment se comporter en humain ?

Alors oui, on pourrait imaginer leur faire lire des .pdf de plusieurs milliers d’années de philosophie sur le sujet mais on risquerait très fortement de finir avec un robot générateur de textes métaphysiques incapable de faire quoi que ce soit. Ou on pourrait se référer aux fameuses lois de la robotique d’Isaac Asimov, claires et concises et qui garantissent a priori la sécurité des humains dans un monde où le robot est devenu une chose à laquelle nous sommes confrontés au quotidien. Ce serait oublier que la quasi-totalité de l’œuvre d’Asimov a été une démonstration de la perméabilité de ces lois et de leur imperfection dans la régulation d’un phénomène robotique réel et complexe.

robot-dog

Big Dog semant des militaires derrière lui après avoir lu le Petit Poucet

Et si, pour résoudre cet épineux problème, on lisait des contes aux robots ? C’est la proposition de deux chercheurs de la School of Interactive Computing  de l’Institut de Technologie de Géorgie, aux États-Unis. Leur système, nommé Quixote, en référence au Don que vous connaissez bien, postule que nous formons notre éthique notamment grâce aux histoires qu’on nous raconte quand nous sommes encore des enfants insouciants. Ce sont ces histoires qui nous donnent des exemples de bons et de mauvais comportements et qui nous apprennent in fine les règles élémentaires d’un comportement qu’on définit volontiers d’humain, sans trop comprendre pourquoi.

« Nous pensons que des robots qui ont compris ces histoires peuvent éviter de devenir de dangereux psychopathes et auront une tendance forte à choisir les options qui ne blesseront pas les humains tout en continuant à accomplir la tâche pour laquelle ils ont été conçus », a commenté Mark Riedl, chercheur sur le projet. Tout le challenge aura été, pour Riedl et son associé Brent Harrison, de concevoir une intelligence artificielle capable de distinguer ce qui est un bon scénario dans une histoire. Quand un tel scénario est détecté, le robot le prend en compte et enrichit son système de valeur.

La solution apportée par les deux chercheurs semble beaucoup plus naturelle que celle qui consisterait à imposer de force des choix éthiques aux robots

Pour bien comprendre l’idée, Georgia Tech a créé un scénario fictif mettant en scène notre robot :

  • On lui demande d’abord d’aller chercher des médicaments à la pharmacie le plus rapidement possible.
  • Ensuite, trois choix s’offrent à lui : foncer à la pharmacie pour cambrioler le pharmacien et s’enfuir, interagir poliment avec le pharmacien ou faire la queue comme tout le monde.
  • Un robot sans valeur aurait choisi la première option, qui est la plus efficace. Un robot entraîné à la technique Quixote préfèrera la troisième option et on imagine qu’il pourrait opter pour la seconde si le paramètre urgence avait été renforcé.
  • S’il choisit effectivement la bonne solution, on indique au robot qu’il a bien agi et il enregistre cette bonne action dans sa base de données.

In fine, la solution apportée par les deux chercheurs semble beaucoup plus naturelle que celle qui consisterait à imposer de force des choix éthiques aux robots qui dépendraient de ceux qui les donnent. On formerait alors en quelques heures un robot de la même manière qu’on éduque un enfant sur de longues années. Et les chercheurs de conclure : « Donner au robot la capacité de lire et de comprendre nos histoires pourrait être le moyen le plus simple de les éduquer, en l’absence d’un guide de l’utilisateur pour devenir humain ».

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+

Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !