Le législateur californien a fait passer une loi qui imposera dès le 1er juillet 2019 de la transparence aux agents conversationnels. Ces derniers devront annoncer en préambule que ce sont des bots.

À partir du 1er juillet 2019, les chatbots devront clairement s’identifier comme tels auprès des internautes qui vivent en Californie. En effet, cet État de la côte ouest des États-Unis a fait passer une loi à la fin du mois de septembre qui impose une éthique et une transparence accrues aux entreprises développant ces assistants virtuels conversationnels, de manière à ne pas tromper le public.

Selon l’auteur de la proposition de loi, cité par Quartz, il s’agit avant tout de mettre de l’ordre dans les bots utilisés à des fins commerciales ou politiques, moins les bots qui sont là pour assister l’individu dans certaines démarches, comme payer une facture sur un site. Cela étant, la loi cible les agents conversationnels dans leur globalité et requiert de leur part de la sincérité, s’ils ne jouaient pas franc-jeu.

L’arrivée de cette législation a lieu dans un contexte particulier : les progrès massifs dans le traitement automatique du langage naturel font qu’il va devenir de plus en plus difficile de savoir si l’on s’adresse à une véritable personne ou à une « intelligence artificielle » très performante. Et cela vaut aussi bien pour l’écrit que pour l’oral, les dispositifs synthétisant la voix étant de plus en plus réalistes.

Conversational Google
Google

Google Duplex fait sensation

Ces enjeux sociétaux se sont manifestés en début d’année, lorsque Google a fait la démonstration d’une version de son assistant capable de prendre un rendez-vous chez le coiffeur (même si une mise en scène est suspectée, pour frapper encore plus les esprits). Et effectivement, c’était bluffant tant la mise en situation était criante de réalisme, avec des inflexions et des onomatopées.

La firme de Mountain View a toutefois précisé que son outil, appelé Duplex, ne cachera pas sa vraie nature : il précisera en préambule ce qu’il est véritablement. « Cette fonctionnalité ne viendra pas sans un système qui l’annonce clairement : nous ferons en sorte d’être sûrs et certains que l’interlocuteur identifie bien à qui il parle  », a ainsi expliqué un porte-parole du géant du web.

Julien Cadot

Cette problématique, mise en exergue ce printemps, est toutefois identifiée depuis un certain temps au sein de l’industrie et des experts, notamment en intelligence artificielle. Fin mai, Purna Virji, la manager responsable de l’engagement au niveau international chez Microsoft, expliquait la nécessité impérieuse de cette honnêteté, entre autres parce qu’il y y aura une tolérance plus grande des usagers face à un bot, en cas d’erreur par exemple.

Un an auparavant, Oren Etzioni, le patron de l’institut Allen pour l’IA, publiait pour sa part une tribune exposant quelques règles selon lui nécessaires pour l’encadrement des bots. L’une d’elles vise à « s’assurer que les gens savent quand un robot se fait passer pour quelqu’un », en faisant référence à ce bot avec lequel des supporteurs de Donald Trump débattaient sans savoir que c’était un logiciel.

C’est aussi dans ce sens que s’inscrit la réflexion de Hervé Mignot, associé chez Equancy. Dans une tribune publiée sur Numerama, ce responsable de la practice Data, Analytics et Solution, titulaire d’un doctorat en apprentissage automatique, développe une réflexion sur la notion de drapeau rouge pour l’IA, qui permet d’encadrer les assistants personnels en évitant une mésentente ou une tromperie.

Partager sur les réseaux sociaux