Des scientifiques travaillent sur un robot capable de refuser un ordre si celui-ci le met en danger.

Si vous êtes un mordu de science-fiction, vous connaissez sans doute les trois lois de la robotique formulées par l’écrivain de Isaac Asimov. Si vous ne voyez pas ce dont il s’agit, sachez qu’elles servent à organiser les relations entre les robots et les humains, en obligeant les premiers à ne jamais s’en prendre aux seconds et à toujours respecter leurs ordres, à condition que les consignes données n’entrent pas en contradiction avec la règle de préservation des hommes.

Nées dans la littérature, ces trois lois inspirent aujourd’hui les scientifiques travaillant dans la robotique. Dans le secteur de l’intelligence artificielle par exemple, des voix se sont fait entendre pour réclamer un encadrement plus strict de son développement, en s’inspirant justement des pistes couchées sur papier par Isaac Asimov il y a plus de soixante-dix ans, afin d’éviter que des robots trop capables ne se retournent contre l’humanité.

Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec les deux premières lois.

Mais dans ces trois lois, il y en a une qui est plus « favorable » aux robots. C’est la troisième. Celle-ci invite en effet le robot à « protéger son existence tant que cette protection n’entre pas en conflit » avec les autres lois. Or les travaux menés par Gordon Briggs et  Matthias Scheutz de l’université de Tufts, aux États-Unis, nous font justement penser à cette règle qui invite le robot à préserver son existence.

Utilisant un robot Nao développé par la société Aldebaran Robotics, ils ont fait en sorte que celui-ci puisse rejeter des ordres venant d’un homme s’ils pourraient s’avérer dangereux pour lui.

Dans l’exemple en vidéo, après plusieurs commandes de base (« assis-toi », « debout ») l’un des deux chercheurs demande au robot d’avancer droit devant alors que le bord de la table est proche. Le robot explique à ce moment-là qu’il ne peut pas le faire, à cause d’un risque de chute. L’instruction est alors répétée, en précisant qu’il sera rattrapé au moment où il basculera dans le vide.

Cette démonstration, qui en est presque attendrissante quand le Nao refuse de se mettre en danger, vise à montrer l’intérêt qu’il peut y avoir de permettre à un robot de refuser une consigne afin d’obliger l’opérateur humain à clarifier son instruction. Elle illustre également la construction de la déduction du robot, qui prend en compte les informations délivrées par le contrôleur (l’ordre « marche droit devant » a été refusé par le machine face au risque de chute, mais la commande « je te rattraperai » a été dite ensuite).


Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.