Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Est-ce que les robots peuvent devenir gentils en lisant des contes ?

La méthode Quixote présentée par deux chercheurs américains préconise de former les intelligences artificielles comme on éduque des enfants : en leur lisant des contes. 

Éthique et morale sont des concepts suffisamment complexes pour avoir occupé la philosophie et la littérature du monde entier sur des centaines de milliers de pages. Savoir comment décider de distinguer le Bien du Mal, le bon du mauvais, l'acceptable du condamnable, bref, savoir comment se comporter est loin d'être une science exacte. Et cette définition fluctuante nous pose un nouveau problème à l'ère de robotique : comment apprendre à des machines qui pensent de manière absolue comment se comporter en humain ?

Alors oui, on pourrait imaginer leur faire lire des .pdf de plusieurs milliers d'années de philosophie sur le sujet mais on risquerait très fortement de finir avec un robot générateur de textes métaphysiques incapable de faire quoi que ce soit. Ou on pourrait se référer aux fameuses lois de la robotique d'Isaac Asimov, claires et concises et qui garantissent a priori la sécurité des humains dans un monde où le robot est devenu une chose à laquelle nous sommes confrontés au quotidien. Ce serait oublier que la quasi-totalité de l'œuvre d'Asimov a été une démonstration de la perméabilité de ces lois et de leur imperfection dans la régulation d'un phénomène robotique réel et complexe.

Et si, pour résoudre cet épineux problème, on lisait des contes aux robots ? C'est la proposition de deux chercheurs de la School of Interactive Computing  de l'Institut de Technologie de Géorgie, aux États-Unis. Leur système, nommé Quixote, en référence au Don que vous connaissez bien, postule que nous formons notre éthique notamment grâce aux histoires qu'on nous raconte quand nous sommes encore des enfants insouciants. Ce sont ces histoires qui nous donnent des exemples de bons et de mauvais comportements et qui nous apprennent in fine les règles élémentaires d'un comportement qu'on définit volontiers d'humain, sans trop comprendre pourquoi.

« Nous pensons que des robots qui ont compris ces histoires peuvent éviter de devenir de dangereux psychopathes et auront une tendance forte à choisir les options qui ne blesseront pas les humains tout en continuant à accomplir la tâche pour laquelle ils ont été conçus », a commenté Mark Riedl, chercheur sur le projet. Tout le challenge aura été, pour Riedl et son associé Brent Harrison, de concevoir une intelligence artificielle capable de distinguer ce qui est un bon scénario dans une histoire. Quand un tel scénario est détecté, le robot le prend en compte et enrichit son système de valeur.

Pour bien comprendre l'idée, Georgia Tech a créé un scénario fictif mettant en scène notre robot :

In fine, la solution apportée par les deux chercheurs semble beaucoup plus naturelle que celle qui consisterait à imposer de force des choix éthiques aux robots qui dépendraient de ceux qui les donnent. On formerait alors en quelques heures un robot de la même manière qu'on éduque un enfant sur de longues années. Et les chercheurs de conclure : « Donner au robot la capacité de lire et de comprendre nos histoires pourrait être le moyen le plus simple de les éduquer, en l'absence d'un guide de l'utilisateur pour devenir humain ».