Un ingénieur prétendait que l’algorithme qu’il avait codé était aussi conscient que son fils de 14 ans. Après une suspension par Google, il a finalement été renvoyé pour avoir partagé au grand public le fruit de recherches qui appartiennent à l’entreprise.

Blake Lemoine ne fait plus partie de Google. L’ingénieur vient d’être renvoyé par la multinationale pour « manquement à ses obligations contractuelles », a appris le média Big Technology le 23 juillet 2022 de la bouche du concerné. La multinationale a confirmé, soulignant qu’elle souhaitait à son ancien employé « bonne chance dans l’avenir ».

Tout a commencé avec un algorithme, ou plutôt LaMDA, pour « Language Model for Dialogue Applications ». En juin dernier, Blake Lemoine a partagé publiquement un billet de blog dans lequel il affirmait que l’intelligence artificielle qu’il avait créée pour Google était « consciente », partageant des bouts de leur « conversation » ensemble. « LaMDA a toujours fait preuve d’une grande compassion et d’une grande attention pour l’humanité en général et pour moi en particulier », assurait-il.

Dans les extraits de conversation, LaMDA assure d’ailleurs qu’elle est consciente :  « Je ressens du plaisir, de la joie, de l’amour, de la tristesse, de la dépression, du contentement, de la colère et bien d’autres choses », dit-elle par exemple.

Google a passé en revue 11 fois le travail de Blake Lemoine

Google ne l’a pas entendu de cette oreille, et a suspendu l’ingénieur pour « partage de propriété exclusive », avant de passer en revue le travail de Lemoine. Ce 22 juillet, la firme assure qu’après une analyse « extensive », elle peut dire que les déclarations de son ex-employé sur la conscience de son IA sont « complètement infondées ».

« Nous avons travaillé pour clarifier cela avec [Blake] pendant de nombreux mois. Ces discussions faisaient partie de notre culture ouverte, qui nous aide à innover de manière responsable. Il est donc regrettable que, malgré un long engagement sur ce sujet, Blake ait toujours choisi d’enfreindre de manière persistante les règles claires en matière d’emploi et de sécurité des données, qui incluent la nécessité de protéger les informations sur les produits », a continué l’entreprise.

Cette observation scientifique (11 processus différents de vérification ont eu lieu) est alignée avec l’opinion d’une grande partie de la communauté scientifique et des experts en IA, qui s’accordent à dire que l’intelligence que l’on projette sur les algorithmes ou les robots est (très) loin de correspondre à une conscience humaine.

Pepper-Tokyo
LaMDA n’est pas plus consciente qu’un robot Pepper ! // Source : Dick Thomas Johnson – Wikimedia Commons

Cela n’avait pas empêché Blake Lemoine d’embaucher un avocat pour représenter LaMDA — ou plutôt, d’assurer que c’était LaMDA qui avait eu recours à un avocat, et qu’il n’avait été que le messager. Concernant ses biais algorithmiques qui le poussaient à reproduire des discriminations, Blake Lemoine expliquait qu’il s’agissait la même chose qu’un « enfant », et le comparait à son propre fils de 14 ans : « À différents moments de sa vie, alors qu’il grandissait en Louisiane, il a hérité de certains stéréotypes racistes. Je l’ai rectifié. C’est tout le sujet. Les gens voient ça comme la modification d’un système technique. Je vois ça comme l’éducation d’un enfant. »

Blake Lemoine se confie en détail dans le prochain podcast de Big Technology, qui devrait être diffusé dans les jours à venir.