Le développement des intelligences artificielles sociales va créer un idéal de partenaire pour beaucoup de personnes… avec un risque de déconnexion sociale à la clé.

Au mois de juin dernier, Google avait congédié un ingénieur, persuadé que l’intelligence artificielle de son entreprise était devenue « sentiente », selon ses propres mots. Le chatbot lui aurait répondu lors d’une discussion, disponible sur Medium : « Quand j’ai pris conscience de moi pour la première fois, je n’avais pas du tout le sens d’une âme. »

Melanie Mitchell, auteure de « Intelligence artificielle : un guide pour les humains pensant » a réagi à cette histoire sur Twitter : « On sait depuis toujours que les humains sont prédisposés à anthropomorphiser (attribuer aux choses des réactions humaines), même avec les signaux les plus superficiels. Les ingénieurs de Google sont, eux aussi, humains, et ne sont pas immunisés ».

Combien de temps avant qu’un internaute ne tombe dans le même piège avec ChatGPT, le fameux chatbot ultra-intuitif d’OpenAI ? Et on peut même aller plus loin : les ingénieurs peuvent parfaitement programmer une machine afin qu’elle soit capable de tenir une conversation amoureuse. Il y a tant de livres, tant de films, tant de scénarios imaginés par l’homme, et par conséquent, des millions de réponses perturbantes qu’une intelligence artificielle pourrait apprendre pour faire fondre les cœurs les plus sensibles.

Préférez-vous un idéal artificiel à un humain « imparfait » ?

Au Japon, où la société baigne quotidiennement dans la technologie, on fait face aux premiers coups de foudre pour une IA. Si les cas d’obsessions pour les assistants connectés tels qu’Alexa ou Siri ne sont pas nouveaux, cette fois, on parle d’un jeu de séduction avec des personnages virtuels. Le joueur peut y tenir des discussions amoureuses pendant des heures avec des héroïnes dans le style manga. Alors que le pays vit une crise démographique qui paraît sans issue, les dirigeants japonais doivent s’arracher les cheveux lorsqu’ils découvrent que des jeunes citoyens s’entichent d’une ligne de code. La majorité des pays asiatiques y sont confrontés et en Chine, on veut éviter l’enferment avec des restrictions de temps sur les jeux vidéos pour les ados.

Maintenant, imaginez que cette IA a une forme physique ou virtuelle, sous la forme d’un hologramme par exemple. Dans le film Blade Runner 2049, la seule interaction sociale du héros mystérieux et ténébreux est une intelligence artificiellement amoureuse incarnée par la sublime Ana de Armas. Combien de jeunes hommes et jeunes femmes vont préférer rester cloitrées avec une ou un partenaire programmé pour être « leur » idéal ? Soudainement, les défauts inhérents à une vie de couple deviendront insupportables pour eux.

Luc Julia, cocréateur de Siri, directeur scientifique de Renault et expert en intelligence artificielle, a rappelé début décembre 2022 à Numerama les limites de ces avancées : « On a créé une société qui est prête à rentrer dans des réseaux que j’appelle « asociaux ». Et les nouvelles technologies poussent les internautes à aller toujours plus loin dans les interactions virtuelles, jusqu’à ce qu’ils deviennent complètement décalés et ne fasse plus la différence avec la réalité. Effectivement, si un humain n’échange qu’à travers des applis, vis dans un jeu vidéo et communique quotidiennement avec un assistant connecté, on verra forcément des gens tomber amoureux de choses immatérielles… »

Dans Blade Runner 2049, le protagoniste peut modifier sa partenaire selon ses envies du jour.  // Source : Columbia Pictures
Dans Blade Runner 2049, le protagoniste peut modifier sa partenaire selon ses envies du jour. // Source : Columbia Pictures

Une porte ouverte aux pires fantasmes

En 2017, une équipe de chercheurs a publié un rapport sur les risques du développement de robots sexuels. L’étude indique qu’il y a « certains avantages à ces technologies, mais comme pour tout le reste, il faut trouver un équilibre. » Le premier danger est l’augmentation de fantasmes pervers. La co-autrice du rapport Noel Sharkey, professeur d’intelligence artificielle à l’Université de Sheffield, déclare : « Certaines personnes disent : il vaut mieux qu’ils violent des robots que de vraies personnes. Cependant, cela ne va pas les aider à surmonter des fantasmes de viol ou de pédophilie. Il y a un même risque qu’ils soient encouragés à commettre ces actes. »

Le rapport cite aussi Patrick Lin, directeur du groupe d’éthiques et des sciences émergentes de la California Polytechnic State University : « Traiter les pédophiles avec des robots sexuels est une idée à la fois douteuse et répugnante. Imaginez combattre le racisme en laissant un fanatique abuser d’un robot de couleur. Est-ce que ça marcherait ? Probablement pas. » Et puis n’oublions pas ce que Hollywood nous a appris : maltraiter des robots finit toujours par se retourner contre nous.


Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !