Plusieurs chercheurs s'affairent depuis plusieurs mois à prouver que les assistants vocaux sont loin d'être infaillibles. Dans une configuration de test, ils peuvent même être bernés par des son inaudibles, cachés dans des morceaux de musique.

Les assistants vocaux, devenus l’argument marketing des géants depuis plusieurs mois, pullulent sur nos objets connectés. Ils veulent être nos meilleurs amis de demain et prendre des rendez-vous à notre place. Mais sont-ils seulement infaillibles ? Non arguent plusieurs chercheurs de diverses universités chinoises et américaines. En expérimentant, ils se sont rendus compte qu’il était possible de duper les intelligences artificielles en utilisant des sons particuliers, inaudibles pour une oreille humaine et pouvant même être cachés dans des pistes audio. La démonstration peut-être consultée à cette adresse.

Faut-il s’en alarmer ? Interrogé par le New York Times dans un long article du 10 mai 2018, Nicholas Carlini, étudiant en sécurité informatique à Berkeley, a son idée sur la question : « Nous voulions voir s’il était possible d’être encore plus discret qu’avant. Mon hypothèse est que des personnes malavisées engagent déjà des gens pour faire ce que je fais  ». Et en effet, cacher des sons de déclenchement dans des morceaux de musique permettrait de berner les humains.

Des attaques inaudibles

Dans le pire des scenarii, on peut donc imaginer des objets connectés avec un assistant vocal toujours alerte — comme une enceinte — devenir les victimes d’attaques silencieuses. Déjà l’an dernier, six étudiants de l’université de Zhejiang avaient publié une vidéo intitulée DolphinAttack dans laquelle on pouvait voir le Siri d’un iPhone verrouillé se faire berner par un son émis à une fréquence inaudible. Une fois l’assistant réveillé, il est très facile de lui faire faire ce que l’on veut : aller sur des sites peu recommandables, lancer un appel, entre autres sollicitations permises. 

Mais de telles attaques semblent quand même avoir leurs limites, pour l’heure. Dans le cas de la DolphinAttack, par exemple, le signal trompeur doit être émis à une distance très rapprochée de la cible, limitant le champ d’action des éventuels hackeurs. Et c’est la même chose pour les autres dispositifs embarquant aujourd’hui des assistants, du Google Home à l’Amazon Echo : les micros sont certes puissants, mais une attaque doit avoir lieu dans un environnement maîtrisé par les attaquants. On a du mal à l’imaginer mise en place contre des particuliers au hasard.

« Nous voulons démontrer que c’est possible et ensuite espérer que les autres se disent ‘Ok, c’est possible, maintenant on va le corriger’  », indique Nicholas Carlini. La balle est maintenant dans le camp des constructeurs. 

Partager sur les réseaux sociaux