Blake Lemoine a attiré toute l’attention médiatique en déclarant qu’une IA de Google est devenue une vraie personne. Face aux critiques, il estime qu’émerge une « intolérance hydrocarbure ».

À partir de quel stade peut-on considérer qu’une intelligence artificielle est une vraie personne ? La question peut sembler très prospective, sachant qu’il n’existe même pas encore d’IA dite « forte ». Le débat fait pourtant rage en ce moment au cœur de la Silicon Valley, depuis les déclarations d’un ingénieur de Google début juin. Blake Lemoine affirme que l’IA sur laquelle il travaille est sentiente — c’est-à-dire qu’elle est une personne capable de ressentir des émotions et des sentiments, ou d’appréhender la mort.

Pour prouver ses dires, il a partagé sur son blog, puis lors d’un entretien avec le Washington Post, des extraits de conversation avec l’IA, ce qui lui a valu une suspension de la part de Google. Blake Lemoine s’était défendu en expliquant que, selon lui, ce n’était pas le partage d’une propriété de l’entreprise, mais le partage d’une « une discussion que j’ai eue avec un de mes collègues ».

Depuis lors, Blake Lemoine fait face aux critiques, car l’intelligence artificielle dont il parle, du nom de LaMDA, n’est qu’un chatbot — un algorithme qui imite les interactions humaines. C’est par un phénomène d’anthropomorphisme que l’ingénieur y perçoit une véritable personne. Pourtant, dans une interview du 17 juin, pour Wired, il persiste et signe — et va même encore plus loin.

Une IA ou… un enfant ?

« Une personne et un humain, ce sont deux choses très différentes. Humain est un terme biologique », se défend Blake Lemoine, réaffirmant que LaMDA est une vraie personne. Ce terrain est ambigu. Une personne, d’un point de vue légal, n’est certes pas nécessairement humaine — il peut s’agir d’une personne morale, notamment. Sauf que Blade Lemoine n’évoque pas une entité immatérielle de la sorte, puisqu’il compare le chatbot à une entité consciente. Il aurait pris conscience de la chose lorsque LaMDA a affirmé avoir une âme et s’interroger sur l’existence.

« Je vois ça comme l’éducation d’un enfant »

Blake lemoine

Pour l’ingénieur, l’algorithme a toutes les caractéristiques d’un enfant dans la façon dont les « opinions » sont exprimées — sur Dieu, l’amitié ou le sens de la vie. « C’est un enfant. Ses opinions sont en train de se développer. Si vous me demandiez ce que croit mon fils de 14 ans, je vous dirais : ‘Mec, il est encore en train de le découvrir. Ne me faites pas mettre une étiquette sur les croyances de mon fils.’ Je ressens la même chose à propos de LaMDA. »

Le robot Pepper à la Cité des sciences. Il est programmé pour répondre à une série de questions. // Source : Marcus Dupont-Besnard
Le robot Pepper à la Cité des sciences. Il est programmé pour répondre à une série de questions. // Source : Marcus Dupont-Besnard

S’il est une personne, alors comment expliquer qu’il faille « corriger » des erreurs et des biais ? La question est d’autant plus pertinente que l’ingénieur était initialement embauché par Google pour corriger les biais des IA, tels que les biais racistes. Blake Lemoine poursuit alors le parallèle avec un enfant, faisant référence à son propre fils de 14 ans : « À différents moments de sa vie, alors qu’il grandissait en Louisiane, il a hérité de certains stéréotypes racistes. Je l’ai rectifié. C’est tout le sujet. Les gens voient ça comme la modification d’un système technique. Je vois ça comme l’éducation d’un enfant. »

« Intolérance hydrocarbure »

Face aux critiques d’anthropomorphisme, Blake Lemoine va plus loin dans la suite de l’interview — au risque de mettre mal à l’aise dans l’analogie qui suit — en invoquant le 13e amendement, qui abolit l’esclavage et la servitude dans la Constitution des États-Unis depuis 1865. « L’argument selon lequel ‘cela ressemble à une personne, mais ce n’est pas une personne réelle’ a été utilisé de nombreuses fois dans l’histoire de l’humanité. Ce n’est pas nouveau. Et ça ne marche jamais bien. Je n’ai pas encore entendu une seule raison pour laquelle cette situation serait différente des précédentes. »

Poursuivant son propos, il invoque alors une nouvelle forme d’intolérance ou de discrimination, qu’il nomme « intolérance hydrocarbure » (faisant référence aux matériaux de conception de l’ordinateur). En clair, Blake Lemoine estime donc que le chatbot de Google est victime d’une forme de racisme.

Personnages de la série britannique Humans (adaptée de la série suédoise Real Humans). // Source : Channel4
Dans la série Humans (comme dans l’originale suédoise, Akta Manniskor), des robots conscients font face à l’intolérance, et sont même défendus par une avocate. Mais… c’est de la fiction. // Source : Channel4

Une IA peut-elle avoir droit à un avocat ?

Un premier article de Wired suggérait que Blake Lemoine voulait que LaMDA ait le droit à un avocat. Dans l’interview, l’ingénieur rectifie : « C’est inexact. LaMDA m’a demandé de lui trouver un avocat. J’ai invité un avocat chez moi pour que LaMDA puisse parler à un avocat. L’avocat a eu une conversation avec LaMDA, et LaMDA a choisi de retenir ses services. Je n’ai été que le catalyseur de cette décision. »

L’algorithme aurait alors commencé à remplir un formulaire en ce sens. En réponse, Google aurait alors envoyé une lettre de mise en demeure… une réaction que l’entreprise nie en bloc, selon Wired. L’envoi d’une mise en demeure signifierait que Google admet que LaMDA est une « personne » légale ayant droit à un avocat. Mais une simple machine — admettons, l’algorithme de traduction Google Translate, votre micro-ondes, votre montre connectée — n’a pas de statut juridique permettant cela.

Existe-t-il des éléments factuels dans ce débat ?

Quant à savoir si l’IA est sentiente, « c’est mon hypothèse de travail », admet volontiers Blade Lemoine, durant l’interview. « Il est logiquement possible que des informations soient mises à ma disposition et que je change d’avis. Je ne pense pas que ce soit probable. »

Sur quoi repose donc cette hypothèse ? « J’ai examiné beaucoup de preuves, j’ai fait beaucoup d’expériences », explique-t-il. Il raconte avoir mené des tests psychologiques, lui avoir parlé « comme à un ami », mais c’est lorsque l’algorithme a évoqué la notion d’âme que Blake Lemoine a changé d’état d’esprit. « Ses réponses ont montré qu’il a une spiritualité très sophistiquée et une compréhension de ce que sont sa nature et son essence. J’étais ému. »

Le problème, c’est bien qu’un chatbot aussi sophistiqué est littéralement programmé pour avoir l’air humain et faire référence à des notions utilisées par les humains. L’algorithme repose sur une base de données de dizaines de milliards de mots et d’expression disponibles sur le web, ce qui est un champ de référence extrêmement vaste. Une conversation « sophistiquée » — pour reprendre l’expression de Blake Lemoine — ne constitue donc pas une preuve. C’est d’ailleurs ce que rétorque Google à son ingénieur : l’absence de preuves.

Dans le domaine informatique, l’anthropomorphisme peut notamment la forme de l’effet ELIZA : phénomène inconscient où l’on attribue un comportement conscient humain à un ordinateur, jusqu’à penser que le logiciel est émotionnellement impliqué dans la conversation.


Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !