Les assistants vocaux que vous utilisez au quotidien sont paramétrés par défaut pour avoir des voix de femmes. Cela créerait des biais sexistes, selon un rapport de l’ONU.

Siri dans certaines langues, Alexa, Cortana, Google Assistant… La plupart des assistants vocaux personnels sont paramétrés pour avoir d’office une voix féminine. Le problème, c’est que cela contribuerait à renforcer des stéréotypes sexistes. Les Nations Unies (ONU) ont publié un rapport ce mercredi 22 mai qui explique pourquoi.

Du flirt et des remerciements

Le rapport montre que les assistants vocaux répondent souvent aux insultes, critiques ou propos déplacés par des phrases nonchalantes, des excuses, voire du « flirt » ou des remerciements.

Lorsqu’on dit aux assistants qu’ils sont « sexy », on obtient par exemple comme réponses : « vous dites ça à tous les assistants virtuels ? » (Siri) ou « c’est gentil de votre part » (Alexa). À « vous êtes une p*** », Siri rétorque qu’il « rougirait s’il le pouvait », Alexa « remercie » son interlocuteur pour son avis, tandis que Google Assistant s’excuse de ne pas avoir compris.

Exemples de réponses. // Source : ONU

Exemples de réponses.

Source : ONU

Cela poserait problème car par défaut, les assistants sont dotés d’une voix féminine, dans la plupart des pays. Seul Siri propose la voix masculine par défaut dans les langues suivantes : arabe, français, danois et anglais britannique.

Nous avons testé en version française : Siri ne répondait à aucun moment « je rougis » comme il est écrit dans le tableau pour la version anglophone. Une fois que nous avons passé Siri en anglais, l’assistant d’Apple ne répondait que « je ne sais pas comment répondre à ça » — peut-être que, depuis le début de l’étude de l’ONU, les résultats ont été modifiés.

Capture Numerama

Capture Numerama

Des clichés qui ont des répercussions

Selon l’ONU, les réponses des assistants donneraient une mauvaise image des femmes. À terme, les utilisateurs auraient l’impression que les femmes sont « obligées », qu’elles sont « désireuses de plaire » et « serviles »… un cliché sexiste déjà bien répandu dans la société.

Le rapport s’appuie pour affirmer ceci sur les travaux de plusieurs sociologues, chercheurs et chercheuses. La professeure Safiya Umoja Noble expliquait ainsi en 2018 que les assistants virtuels étaient « un outil de socialisation important ». Ils contribueraient selon elle à l’éducation des enfants concernant « le rôle des femmes, filles, et des personnes genrées au féminin » qu’ils verraient comme des personnes « répondant sur demande ».

Calvin Lai, un chercheur, expliquait lui que l’on associait de plus en plus le terme « assistant » aux femmes. Cela se serait accru depuis la généralisation des assistants vocaux.

Une pétition pour changer les choses

Il a fallu attendre plusieurs années pour que les assistants vocaux se dotent de voix masculines. Cortana et Alexa, l’assistant personnel d’Amazon, n’en ont toujours pas. Pourtant, Alexa représentait 62 % du marché américain des assistants intelligents en 2017 — ce pourcentage tend à diminuer au profit de la montée de Google Assistant.

En 2017, une pétition a été signée par 17 000 personnes. Il était demandé à Apple et Amazon de changer certaines réponses données par leurs assistants vocaux. Ils devaient notamment cesser de répondre en flirtant à des insultes sexistes. D’après le rapport, des efforts ont été faits en ce sens, mais ils sont insuffisants : « [les assistants] disent rarement que les propos sont inappropriés ».

L’ONU invite les entreprises à ne pas toujours proposer la voix féminine par défaut. Certaines y tiennent pourtant beaucoup. En septembre, Amazon expliquait à Business Insider que la voix féminine n’avait pas été choisie au hasard. Une étude de marché aurait montré qu’elle était perçue comme plus « sympathique » et donc, plus apte à aider les consommateurs. Cortana de Microsoft ne semble pas non plus vouloir changer pour le moment.

Des équipes toujours très masculines

En guise de défense, Google a lui simplement supprimé l’option « Voix 1 » ou « Voix 2 » en anglais américain : les voix sont toujours les mêmes, mais elles sont désormais représentées par des couleurs et non plus des genres. En France, Google Assistant a plusieurs voix utilisées aléatoirement et ne peut pas être paramétré : une voix féminine pour les interactions et d’autres voix pour les « actions », comme les jeux ou les applications tierces. La voix féminine est celle par défaut et ne peut toujours pas être changée. Comme Amazon, l’entreprise a aussi développé des campagnes pour encourager les enfants (et les adultes) à être plus polis à l’égard de ses assistants vocaux.

Selon le rapport, tout ceci serait lié en partie au fait que ces technologies sont développées « par des équipes majoritairement masculines ». Chez Google, seules 10 % de l’équipe dédiée à l’intelligence artificielle sont des femmes. Or les intelligences artificielles, parce qu’elles sont entraînées par des humains, grâce à des données créées par des humains, ne sont jamais véritablement neutres. Il existe des biais sexistes dans la société et donc logiquement, il en existe aussi dans les assistants personnels.

En mars, un groupe d’activistes, linguistes et spécialistes de l’audio ont mis au point une voix neutre, qui pourrait peut-être résoudre une partie du problème.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !