En achetant la startup Emotient, Apple donne un nouvel indice sur un champ qu'il pourrait explorer : la reconnaissance des émotions de ses utilisateurs. Un pas vers une intelligence artificielle vraiment intelligente ?

Hier, Apple a confirmé au Wall Street Journal qu’il avait racheté la startup Emotient Inc. Si cela ne vous parle pas, c’est bien normal : elle n’avait pas, à proprement parler, sorti de produit qui lui auraient conféré une exposition dans la presse. Mais Emotient n’en reste pas moins une entreprise intéressante. Elle travaille depuis sa création à améliorer les technologies de reconnaissance faciale et à les combiner à de l’intelligence artificielle qui permettrait à un logiciel de détecter, avec suffisamment d’assurance, les émotions. En plus de savoir distinguer les traits de votre visage, la solution d’Emotient pourrait aussi les interpréter.

Mieux vendre

Sur son site, qui a été épuré après le rachat, Emotient reste discret sur sa technologie. La startup n’évoque que quelques pistes d’utilisations qui pourraient être faites :

  • Détecter si une publicité ou un produit est remarqué
  • Détecter si les gens ont une réaction émotionnelle à une publicité ou un produit
  • Détecter si cette émotion est positive, négative ou neutre

On imagine alors assez facilement comment Apple pourrait utiliser une technologie de ce genre, et ce à deux niveaux.

Le premier est purement commercial : on sait qu’Apple apporte un soin tout particulier aux temples de la consommation que sont les Apple Store et on imagine bien l’intégration de cette technologie liée aux caméras de surveillance des boutiques, ou intégrées aux exemplaires à libre disposition du public. Cela permettrait à Apple d’avoir une idée du ressenti immédiat des gens qui se baladent dans son Store et tombent nez-à-nez avec les produits.

apple-store-chine

En ajustant finement la solution, il serait possible de détecter quelle partie d’une présentation d’un produit, quelle fonctionnalité d’un logiciel ou quelle découverte sur l’objet par le client suscite telle ou telle réaction. Apple pourrait alors ajuster ses présentations logicielles et ses produits pour maximiser le contentement des potentiels acheteurs. On ne va pas vous faire un dessin pour la finalité d’un tel dispositif : mieux vendre. Rien de révolutionnaire pour autant, quand on sait que les panneaux publicitaires qui diffusent sur des écrans des publicités animées sont déjà équipées de technologies de ce type pour savoir si une campagne fait de l’effet ou vous laisse parfaitement indifférent.

le futur de siri

Le deuxième niveau d’utilisation est moins évident, mais beaucoup plus intéressant. La Silicon Valley s’attache de manière assez massive aujourd’hui à trouver comment rendre l’intelligence artificielle vraiment intelligente et la détection des émotions et leur interprétation pourraient être deux étapes importantes. C’est, par exemple, une technologie en test que Microsoft a dévoilé en fin d’année dernière. La manière légère de présenter cette avancée ne doit pas cacher son potentiel : une intelligence artificielle qui peut détecter vos émotions pourra se comporter plus humainement dans la réponse qu’elle donne à vos requêtes.

L’un des problèmes de Siri par exemple, c’est qu’il est aujourd’hui assez limité dans sa manière de comprendre à quel point il a su satisfaire vos demandes — ce qui l’empêche de s’améliorer. Vous lui donnez l’ordre de baissez les lumières de votre salon à 30 %, il cherche sur le web les magasins dans les environs qui soldent des lumières de salon à 30 %. Vous pestez, vous râlez, mais cela n’a aucun effet et n’aura aucun effet sur les futures requêtes : immanquablement, sans retour de votre part, Siri ne saura pas qu’il a fait n’importe quoi. Maintenant, donnez-lui la capacité de voir que vous êtes circonspect ou mécontent et il pourra deviner que sa requête n’est pas la bonne, ajouter ce paramètre dans son algorithme et corriger le tir la prochaine fois qu’il entend mal votre ordre.

her-movie-joaquin-phoenix

C’est un exemple simple, mais mesurer la réponse affective est, en quelques sortes, un moyen d’enrichir une base de données avec une information plus pertinente qu’une alternative « ça a marché / ça n’a pas marché ». On passe du binaire au degré, à la nuance, le tout pris à la source : votre réaction quasi-mécanique, infraverbarle et inconsciente face à une interaction avec un logiciel ou un appareil.

Si toutes ces réflexions semblent tirées d’un futur incertain, c’est normal : Apple n’est pas du genre à intégrer une technologie avant qu’elle soit efficace et on ne s’attend pas à ce que l’iPhone 7 soit notre nouveau pote. Il n’empêche que le mode opératoire d’Apple sur ce sujet ressemble à celui qui avait été employé pour amener à la naissance de Siri à l’époque : du rachat de startup et des dépôts de brevets pour préparer le terrain. En 2014, Apple a en effet déposé un brevet logiciel qui évoque une technologie capable de reconnaître les émotions des utilisateurs et en octobre de l’année dernière, la firme de Cupertino a acheté VocalIQ, l’équivalent d’Emotient pour les nuances de la voix.

Avec tous ces éléments, il est assez facile d’imaginer un Siri extrêmement plus compétent et évolutif que dans sa version actuelle qui commence très nettement à montrer ces limites, à l’heure où un Zuckerberg s’est donné pour défi de développer son propre assistant personnel capable de prendre en charge toutes les fonctions de sa maison. Mais ce Siri du futur aura en même temps deux lourdes tâches à accomplir : être suffisamment discret et sécurisé pour ne pas empiéter sur la vie privée des utilisateurs et savoir comment interpréter les données qu’il reçoit. Car c’est tout le challenge des informations non verbales et inconsciente : a priori, vous ne savez pas que vous les transmettez.

 

Partager sur les réseaux sociaux

Articles liés