Les conversations avec le Google Assistant sont écoutées afin d’améliorer l’intelligence artificielle de l’assistant vocal. Théoriquement inoffensifs, les enregistrements révèlent parfois des informations sensibles par erreur.

On savait déjà qu’Amazon écoutait les conversations enregistrées avec Alexa, mais on peut maintenant affirmer que Google fait la même chose. Selon une enquête du média belge VRT publiée le 10 juillet, des employés de la firme étudient des enregistrements conservés par Google Assistant pour améliorer son intelligence artificielle. Cette pratique est légale et indiquée dans les conditions d’utilisation de l’assistant connecté, mais elle pose des questions sur le respect de la vie privée.

Un intérêt pour la forme plutôt que pour le fond

Un salarié travaillant pour un sous-traitant de Google a expliqué à VRT que « la firme n’est pas intéressée par ce que vous dites, mais par la façon dont vous le dites. » L’objectif des centaines d’employés chargés d’écouter les conversations (jusqu’à 1000 fichiers audio par semaine) est d’aider l’IA de Google Assistant à mieux comprendre les ordres, pas d’espionner.

Google Home Max // Source : Numerama

Google Home Max

Source : Numerama

Selon trois sources du média belge, la méthode utilisée pour atteindre ce but consiste à analyser et retranscrire chaque son perçu par le micro d’un Google Home ou d’un smartphone. Cela inclut aussi bien les bruits pouvant gêner la compréhension (une toux, un objet que l’on déplace) que la description de la voix, par exemple en indiquant s’il s’agit de celle d’un homme, d’une femme ou d’un enfant. Autant de précisions que l’IA retient et qui lui permettent d’être plus réactive aux demandes. Dans une réponse à VRT, Google explique que « ce genre de travail est crucial pour le développement de nouvelles technologies comme le Google Assistant. »

Un anonymat difficile à conserver

Les pratiques de Google posent forcément des questions sur le respect de la vie privée des utilisateurs. En théorie, les enregistrements sont anonymes : les noms sont remplacés par des séries de chiffres aléatoires et les employés n’ont pas accès aux comptes. Mais dans les faits, l’identité d’une personne peut-être retrouvée à partir de certaines phrases.

Les enregistrements peuvent permettre de retrouver une personne. // Source : Pexels/John Tekeridis

Les enregistrements peuvent permettre de retrouver une personne.

Source : Pexels/John Tekeridis

VRT en a eu la preuve après avoir écouté plus d’un millier d’enregistrements issus de machines situées en Belgique et aux Pays-Bas. Dans plusieurs cas, une adresse précise ou un nom leur a permis de retrouver les utilisateurs enregistrés. Certains ont pu écouter les conversations et ont confirmé au média qu’il s’agissait bien de leur voix.

Selon les employés interrogés, il arrive qu’une identité soit découverte à cause des retranscriptions précises demandées par Google. S’ils ne savent pas comment un nom est écrit par exemple, ils doivent aller le chercher sur internet et tombent parfois sur la personne qu’ils viennent d’écouter.

Des conversations enregistrées par erreur

Le fait d’être écouté quand on pose une question à Google Assistant peut déjà mettre mal à l’aise, mais le logiciel a en plus tendance à fonctionner sans qu’on lui demande. Parmi les enregistrements récupérés par VRT, 153 fichiers audio ont été sauvegardés par erreur. Des conversations qui ne concernent pas Google Assistant peuvent donc être captées, comme des appels professionnels ou des disputes.

L’un des contacts du média belge a précisé qu’il avait déjà écouté « une femme qui était clairement dans une situation angoissante qui impliquait peut-être de la violence physique. » Un contexte qui pose un problème éthique : l’employé se retrouve avec des informations sensibles, mais son travail consiste uniquement à améliorer Google Assistant. Toujours selon le contact de VRT, Google n’a pas donné consignes claires pour gérer des cas de ce genre.


Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !