Des scientifiques travaillent sur un robot capable de refuser un ordre si celui-ci le met en danger.

Si vous êtes un mordu de science-fiction, vous connaissez sans doute les trois lois de la robotique formulées par l’écrivain de Isaac Asimov. Si vous ne voyez pas ce dont il s’agit, sachez qu’elles servent à organiser les relations entre les robots et les humains, en obligeant les premiers à ne jamais s’en prendre aux seconds et à toujours respecter leurs ordres, à condition que les consignes données n’entrent pas en contradiction avec la règle de préservation des hommes.

Nées dans la littérature, ces trois lois inspirent aujourd’hui les scientifiques travaillant dans la robotique. Dans le secteur de l’intelligence artificielle par exemple, des voix se sont fait entendre pour réclamer un encadrement plus strict de son développement, en s’inspirant justement des pistes couchées sur papier par Isaac Asimov il y a plus de soixante-dix ans, afin d’éviter que des robots trop capables ne se retournent contre l’humanité.

Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec les deux premières lois.

Mais dans ces trois lois, il y en a une qui est plus « favorable » aux robots. C’est la troisième. Celle-ci invite en effet le robot à « protéger son existence tant que cette protection n’entre pas en conflit » avec les autres lois. Or les travaux menés par Gordon Briggs et  Matthias Scheutz de l’université de Tufts, aux États-Unis, nous font justement penser à cette règle qui invite le robot à préserver son existence.

Utilisant un robot Nao développé par la société Aldebaran Robotics, ils ont fait en sorte que celui-ci puisse rejeter des ordres venant d’un homme s’ils pourraient s’avérer dangereux pour lui.

Dans l’exemple en vidéo, après plusieurs commandes de base (« assis-toi », « debout ») l’un des deux chercheurs demande au robot d’avancer droit devant alors que le bord de la table est proche. Le robot explique à ce moment-là qu’il ne peut pas le faire, à cause d’un risque de chute. L’instruction est alors répétée, en précisant qu’il sera rattrapé au moment où il basculera dans le vide.

Cette démonstration, qui en est presque attendrissante quand le Nao refuse de se mettre en danger, vise à montrer l’intérêt qu’il peut y avoir de permettre à un robot de refuser une consigne afin d’obliger l’opérateur humain à clarifier son instruction. Elle illustre également la construction de la déduction du robot, qui prend en compte les informations délivrées par le contrôleur (l’ordre « marche droit devant » a été refusé par le machine face au risque de chute, mais la commande « je te rattraperai » a été dite ensuite).

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+

Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !