Plusieurs chercheurs s’affairent depuis plusieurs mois à prouver que les assistants vocaux sont loin d’être infaillibles. Dans une configuration de test, ils peuvent même être bernés par des son inaudibles, cachés dans des morceaux de musique.

Les assistants vocaux, devenus l’argument marketing des géants depuis plusieurs mois, pullulent sur nos objets connectés. Ils veulent être nos meilleurs amis de demain et prendre des rendez-vous à notre place. Mais sont-ils seulement infaillibles ? Non arguent plusieurs chercheurs de diverses universités chinoises et américaines. En expérimentant, ils se sont rendus compte qu’il était possible de duper les intelligences artificielles en utilisant des sons particuliers, inaudibles pour une oreille humaine et pouvant même être cachés dans des pistes audio. La démonstration peut-être consultée à cette adresse.

Faut-il s’en alarmer ? Interrogé par le New York Times dans un long article du 10 mai 2018, Nicholas Carlini, étudiant en sécurité informatique à Berkeley, a son idée sur la question : « Nous voulions voir s’il était possible d’être encore plus discret qu’avant. Mon hypothèse est que des personnes malavisées engagent déjà des gens pour faire ce que je fais ». Et en effet, cacher des sons de déclenchement dans des morceaux de musique permettrait de berner les humains.

Des attaques inaudibles

Dans le pire des scenarii, on peut donc imaginer des objets connectés avec un assistant vocal toujours alerte — comme une enceinte — devenir les victimes d’attaques silencieuses. Déjà l’an dernier, six étudiants de l’université de Zhejiang avaient publié une vidéo intitulée DolphinAttack dans laquelle on pouvait voir le Siri d’un iPhone verrouillé se faire berner par un son émis à une fréquence inaudible. Une fois l’assistant réveillé, il est très facile de lui faire faire ce que l’on veut : aller sur des sites peu recommandables, lancer un appel, entre autres sollicitations permises. 

Mais de telles attaques semblent quand même avoir leurs limites, pour l’heure. Dans le cas de la DolphinAttack, par exemple, le signal trompeur doit être émis à une distance très rapprochée de la cible, limitant le champ d’action des éventuels hackeurs. Et c’est la même chose pour les autres dispositifs embarquant aujourd’hui des assistants, du Google Home à l’Amazon Echo : les micros sont certes puissants, mais une attaque doit avoir lieu dans un environnement maîtrisé par les attaquants. On a du mal à l’imaginer mise en place contre des particuliers au hasard.

« Nous voulons démontrer que c’est possible et ensuite espérer que les autres se disent ‘Ok, c’est possible, maintenant on va le corriger’ », indique Nicholas Carlini. La balle est maintenant dans le camp des constructeurs. 

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+

Marre des réseaux sociaux ? Rejoignez-nous sur WhatsApp !