Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser les commentaires pour donner votre avis, ou la page de contact pour nous contacter. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Ce robot refuse un ordre s'il le met en danger

Des scientifiques travaillent sur un robot capable de refuser un ordre si celui-ci le met en danger.

Si vous êtes un mordu de science-fiction, vous connaissez sans doute les trois lois de la robotique formulées par l'écrivain de Isaac Asimov. Si vous ne voyez pas ce dont il s'agit, sachez qu'elles servent à organiser les relations entre les robots et les humains, en obligeant les premiers à ne jamais s'en prendre aux seconds et à toujours respecter leurs ordres, à condition que les consignes données n'entrent pas en contradiction avec la règle de préservation des hommes.

Nées dans la littérature, ces trois lois inspirent aujourd'hui les scientifiques travaillant dans la robotique. Dans le secteur de l'intelligence artificielle par exemple, des voix se sont fait entendre pour réclamer un encadrement plus strict de son développement, en s'inspirant justement des pistes couchées sur papier par Isaac Asimov il y a plus de soixante-dix ans, afin d'éviter que des robots trop capables ne se retournent contre l'humanité.

Mais dans ces trois lois, il y en a une qui est plus « favorable » aux robots. C'est la troisième. Celle-ci invite en effet le robot à « protéger son existence tant que cette protection n'entre pas en conflit » avec les autres lois. Or les travaux menés par Gordon Briggs et  Matthias Scheutz de l'université de Tufts, aux États-Unis, nous font justement penser à cette règle qui invite le robot à préserver son existence.

Utilisant un robot Nao développé par la société Aldebaran Robotics, ils ont fait en sorte que celui-ci puisse rejeter des ordres venant d'un homme s'ils pourraient s'avérer dangereux pour lui.

https://www.youtube.com/watch?v=0tu4H1g3CtE

Dans l'exemple en vidéo, après plusieurs commandes de base (« assis-toi », « debout ») l'un des deux chercheurs demande au robot d'avancer droit devant alors que le bord de la table est proche. Le robot explique à ce moment-là qu'il ne peut pas le faire, à cause d'un risque de chute. L'instruction est alors répétée, en précisant qu'il sera rattrapé au moment où il basculera dans le vide.

Cette démonstration, qui en est presque attendrissante quand le Nao refuse de se mettre en danger, vise à montrer l'intérêt qu'il peut y avoir de permettre à un robot de refuser une consigne afin d'obliger l'opérateur humain à clarifier son instructionElle illustre également la construction de la déduction du robot, qui prend en compte les informations délivrées par le contrôleur (l'ordre « marche droit devant » a été refusé par le machine face au risque de chute, mais la commande « je te rattraperai » a été dite ensuite).