Des chercheurs espagnols ont mis au point un algorithme permettant de reconnaître les émotions dans la voix des utilisateurs de systèmes de reconnaissance vocale. S'il a d'abord été pensé pour les serveurs téléphoniques, il y a fort à parier que Siri et les autres applications mobiles de ce genre en bénéficient un jour.

Les systèmes de reconnaissance vocale ont le vent en poupe et ils n’ont pas fini d’évoluer. Siri, installé sur les iPhones 4S, et son concurrent racheté par Amazon pourraient bientôt encore mieux comprendre les ordres donnés par leurs utilisateurs et notamment les variations dans leur voix.

En effet, des chercheurs de l’Université Carlos III de Madrid et de l’Université de Grenade, en Espagne, ont mis au point un dispositif qui reconnaît les émotions dans la voix de l’utilisateur et qui adapte son comportement en fonction. Il analyse 60 paramètres acoustiques comme le ton, la vitesse de parole, la durée des pauses ou l’énergie du signal vocal. Les chercheurs l’ont notamment pensé pour détecter les émotions négatives comme la colère, l’ennui ou le doute.

Le système s’adapte également en fonction de la tournure que prend la « conversation ». S’il se rend compte qu’il doit poser plusieurs fois la même question, il supposera que l’utilisateur va s’énerver et changera de ton ou de formulation. Il peut également le faire en se basant sur des « conversations » précédentes.

Les universitaires ont d’abord pensé ce système pour les serveurs téléphoniques, qui remplacent désormais les télé-conseillers pour beaucoup d’opérations par téléphone. Mais il y a fort à parier que les smartphones reconnaissent bientôt les émotions et y réagissent pour mieux proposer du contenu, des applications ou des informations. Un pas de plus vers une intelligence artificielle de plus en plus humaine.

Partager sur les réseaux sociaux

Articles liés