Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Tribune : doit-on voter une loi du drapeau rouge pour l’Intelligence Artificielle ?

Doit-on imposer aux robots et autres intelligences artificielles de se signaler aux humains pour éviter toute mésentente ? Hervé Mignot détaille et questionne la loi du drapeau rouge de Turing.

Cette tribune a été publiée sur Numerama en janvier 2017. Nous l'avons republiée en mai 2018 à la suite des annonces de Google Duplex, qui entre pile dans le sujet de cette réflexion.

Hervé Mignot est associé chez Equancy, responsable de la practice Data, Analytics et Solution. Titulaire d’un doctorat en Machine Learning, il nous a proposé de publier une tribune sur l'intelligence artificielle et un principe de précaution qui pourrait devenir essentiel dans les années à venir. Le drapeau rouge de Turing, en effet, pourrait encadrer les assistants personnels, mais aussi les voitures autonomes ou les algorithmes développés pour le jeu. 

Même si je reste pour ma part prudent quant aux diverses allégations faites sur les capacités à venir de l'intelligence artificielle, nombreux sont ceux qui ouvrent déjà le débat sur les conditions dans laquelle la société des hommes doit accueillir ces nouveaux hôtes.

Elon Musk, le patron de Tesla Motors et de SpaceX, s'est fait le porte-parole de plusieurs industriels (même de la Silicon Valley) et scientifiques (dont Stephen Hawking) pour avertir des risques qu'ils voient à l'usage de l'intelligence artificielle. La crainte ultime est que ne survienne la singularité (popularisée par Ray Kurzweil le transhumaniste de Google), ce moment singulier de l'histoire de l'humanité où l'apparition d'une entité supérieurement intelligente à l'homme empêche toute prospective ou toute prévision sur la suite des événements. D’autres, plus prosaïquement, réfléchissent aux règles à imposer lors de la conception ou de l’usage de ces systèmes.

Dans un article de Communications of the ACM de Juillet 2016, Toby Walsh aborde le sujet d’une façon originale. Il rappelle que lors des débuts de l’automobile en Angleterre en 1865, les premières voitures à moteur devaient être précédées d’un porteur d’un drapeau rouge pour signaler qu’il s’agissait d’un véhicule motorisé (c’est-à-dire avec une propulsion ni animale, ni humaine). Il remarque que cette obligation n’a été abandonnée, les véhicules à moteur voyant leur vitesse limite augmentée à 23 km/h, qu’en 1896 (trente ans plus tard !) et que c’est cette même année que l’on recense le premier décès par accident automobile.

00-man-with-red-flag

S’inspirant du principe de prévention qui a conduit au vote de cette loi du drapeau rouge, Toby Walsh propose d’édicter une règle que devrait respecter tout système autonome (donc une intelligence artificielle). Isaac Asimov avait en son temps énoncé les trois lois de la robotique et exploré littérairement les implications de ces lois, reprises depuis par de nombreux auteurs et prospectivistes. Toby Walsh s’inspire ainsi de cette démarche et commence à étudier les conséquences de sa loi.

Le drapeau rouge de Turing

Loi du drapeau rouge de Turing : tout système autonome doit être conçu de façon à ce qu’il soit improbable qu’il puisse être confondu avec autre chose qu’un système autonome, et doit s’identifier en tant que tel au début de toute interaction avec un autre agent.

La référence à Turing renvoie au test que celui-ci avait proposé pour établir qu’une machine était intelligente : si lors d’une discussion libre mais à couvert avec un interlocuteur humain, cet interlocuteur est incapable de dire s’il a affaire à une machine ou un humain, alors la machine aura passé le test de Turing. Beaucoup ont discuté la pertinence de ce test, car il s’agit plutôt pour la machine d’imiter (ou flouer…) son interlocuteur humain plutôt que de faire preuve d’intelligence à proprement parler. Il n’en reste pas moins un point de référence pour évaluer les interactions entre les humains et les machines.

Cette loi du drapeau rouge comporte deux volets. Le premier impose qu’un système autonome ne soit pas conçu de sorte qu’il puisse agir d’une façon qui pourrait faire croire qu’il y a un humain dans la boucle. Bien sûr, on pourra regretter des situations où il serait utile qu’un système autonome puisse être confondu avec un humain. Une intelligence artificielle prétendant être un humain pourrait créer des interactions plus stimulantes pour les humains. Dans le cas des soins aux personnes âgées ou en dépendance, c’est justement un comportement « humain » de la part du robot qui peut être recherché.

Mais les raisons de préférer ne pas être trompé par un ordinateur prévalent largement. Dans le même esprit, le gouverneur Schwarzenegger lui-même avait fait voter une loi obligeant les armes factices à être d’une couleur permettant de les différencier facilement des armes réelles pour que l’on ne puisse pas le confondre dans certaines situations critiques. Bien entendu, cette loi du drapeau rouge rendrait « illégal » le fameux test de Turing…

La seconde partie de cette loi oblige les systèmes autonomes à se faire connaître en tant que tel au début de toute interaction avec un autre agent, y compris si celui-ci est un autre système autonome, une autre intelligence artificielle. Il s’agit ici d’éviter que l’on puisse prendre un système pour autre chose que ce qu’il est.

Appliquer le drapeau rouge : 4 exemples

Toby Walsh analyse ensuite quatre situations où sa loi a un impact certain.

Dans le cas de la voiture autonome : deux voitures autonomes respectant la loi du drapeau rouge de Turing qui se rencontrent à un croisement pourront agir en conséquence (échange de données, algorithme d’arbitrage sur qui passe avant qui) car elles auront l’obligation de s’identifier en tant que véhicules autonomes lors de leur interaction en vue du carrefour (deuxème partie de la loi).

Pour qu’elle puisse être identifiée par les humains, la voiture autonome devrait comporter une marque externe distinctive, comme des plaques d’immatriculations spécifiques (ou un macaron comme celui des nouveaux conducteurs ou de la conduite accompagnée), voire un signalement externe plus visible (liseré latéral, champignon sur le toit, etc.).

Un conducteur humain pourra alors adapter son comportement à sa connaissance des règles de conduite suivies par l’autre véhicule autonome (respect strict des feux, freinage plus précis). Il pourrait aussi consulter sur l’écran de son véhicule les intentions émises (direction, destination) par les véhicules autonomes, la question se posant alors de préserver la confidentialité des passagers du véhicule autonome.

Crédit : MotorTrend

Deuxième situation où cette loi pourrait jouer un rôle important est celui des assistants personnels, particulièrement ceux interagissant avec des enfants, ou des gens présentant des troubles psychologiques ou des maladies neurodégénératives. Faut-il craindre les impacts sur ces personnes plus fragiles d’une éventuelle déception à la découverte que c’est un système autonome, et non un humain, qui les assistent ? Asimov décrit ainsi dès 1950 les conséquences de l’attachement (excessif ?) d’une jeune fille à son robot nounou. Et vous pouvez vous-même vous amuser à vérifier que Siri d’Apple n’est pas tout à fait en conformité avec cette loi, contournant la réponse à une question directe sur son humanité !

Autre cas, celui des compétitions reposant sur la confrontation d’esprits, comme les jeux d’argent en ligne, où il serait problématique que certains participants soient des systèmes autonomes, à forte capacité de calcul, sans que les adversaires soient pleinement informés de la situation. C'est précisément ce qui s'est produit avec Google et AlphaGo, qui a joué en ligne contre des champions en se cachant derrière un pseudonyme.

Enfin, un domaine où l’intelligence artificielle avance est la génération de texte automatiqueUn certain nombre de domaines, comme la rédaction de rapports financiers, de compte-rendu de matchs sportifs, voit le développement d’outils de génération d’articles. On peut parfaitement envisager que ces outils soient utilisés dans des domaines réservés pour l’instant à des journalistes et des auteurs humains. Savoir que le texte que vous lisez a été produit par un système autonome sera sûrement un élément important dans votre évaluation et jugement de cette production textuelle.

Faut-il légiférer ?

Alors faut-il prendre les devants, en demandant le débat, l’élaboration et le vote d’un cadre juridique pour l’intelligence artificielle ? Après tout, la loi impose bien par exemple que vous soit signalée l’utilisation de dispositifs d’enregistrements vidéo et audio dans les espaces publics ou lors d’appels téléphoniques, pourquoi pas de l’usage de l’intelligence artificielle. Mais peut-être est-ce faire une publicité peut-être un peu excessive et prématurée à l’intelligence artificielle au regard de ses capacités réelles ?

Dans le cas de la voiture autonome, les mises en service (Californie, Nevada, Singapour, Pittsburg, etc.) se font avec des ajustements législatifs pour autoriser leur circulation, mais sans véritable débat sur les implications de l’irruption de ces systèmes autonomes « intelligents », susceptibles d’être pris pour des humains (l’Allemagne prépare depuis 2015 un cadre législatif pour les véhicules autonomes).

https://www.youtube.com/watch?v=3S5bJW3Hbg0

Souvent les technologies pervasives sont adoptées rapidement, sans grande réflexion ou protestation si ce n’est des grincheux usuels. Mais quand ces technologies touchent à la nature humaine, à l’homo, alors les réactions sont vives et nous légiférons souvent (loi bio-éthique, OGM, nanotechnologies invasives). Qu’en sera-t-il des technologies touchant au sapiens de l’humanité ?

Cette tribune a été publiée originellement sur le blog d'Equancy.