Un rapport de l'ONU pointe du doigt les biais sexistes des assistants vocaux que nous utilisons au quotidien.

Le genre des assistants vocaux a-t-il une importance ? Si l’on en croit un rapport publié par les Nations Unies (ONU) mercredi 22 mai, il contribuerait en tout cas à véhiculer des clichés sexistes. Les fabricants auraient tendance à choisir une voix masculine pour des objets qui donnent des ordres ou des directives, mais une voix féminine pour des objets qui épaulent et conseillent.

Des assistants vocaux très féminins

Le rapport met d’abord en évidence l’exemple des assistants connectés tels que Siri, Cortana, Alexa ou Google Assistant. La plupart d’entre eux sont proposés par défaut avec une voix féminine — Cortana et Alexa n’ont même pas de voix masculine.

Le fait qu’une voix de femme soit autant associée à un objet qui n’est là que pour aider est problématique selon l’ONU. Ceci est d’autant plus vrai que les voix ont été entraînées pour répondre de manière évasive, voire séductrice fut un temps, aux insultes sexistes qu’on leur adresse.

Extrait du film Her. // Source : Wild Bunch Distribution

Pour se justifier de leurs choix, les entreprises mettent souvent en avant le même argument, à savoir le fait que leurs clients préfèrent les voix féminines.

Pourquoi préfère-t-on les voix féminines ?

Cet argument cache une réalité un peu plus complexe. En 2011, des chercheurs et chercheuses ont étudié un groupe d’individus (environ 500) et ont démontré qu’ils avaient en fait tendance à associer les voix féminines aux termes «  plaisants », plus que les voix masculines. Cela suggère que la préférence pour une voix de femme viendrait plutôt de son association avec des propos agréables, que de la voix en elle-même.

Un professeur en communication de l’université de Stanford avait également apporté des conclusions similaires dans son ouvrage, Wired Speech. S’appuyant sur plusieurs études, il montrait que les voix féminines sont perçues comme coopératives et enclines à nous aider alors que les masculines sont perçues comme autoritaires. Cela peut s’expliquer par des biais sexistes plus larges : les femmes sont représentées dans la plupart des sociétés actuelles comme des personnes maternelles, apaisantes, compréhensives et à l’écoute. Les hommes doivent eux être forts, faire preuve d’autorité.

Amazon reconnaît ce fait à demi-mot. En septembre 2018, Business Insider a évoqué le sujet avec Daniel Rausch, l’homme à la tête de la section dédiée aux maisons connectées chez Amazon. Il aurait reconnu en off que les utilisateurs préféraient être assistés par une voix féminine, jugée plus agréable en moyenne. Le média suggérait que cela les rendait accessoirement plus enclins à effectuer des achats depuis leur enceinte connectée.

Dans la publicité ci-dessous, Amazon imaginait une situation visiblement dramatique, dans laquelle Alexa avait perdu sa voix. Elle était remplacée par des voix moins « douces » et surtout, moins dociles ce qui à priori perturberait beaucoup les utilisateurs.

Des GPS boudés à cause de leur voix féminine

Les assistants connectés des smartphones ou des enceintes ne sont évidemment pas les seuls à poser question. Prenons l’exemple des GPS. Contrairement aux assistants vocaux cités plus tôt, ce sont des voix majoritairement masculines qui ont longtemps été définies par défaut, pour donner des instructions claires et des directives.

Seuls quelques modèles de voiture ont dérogé à cette règle… et parfois à leurs dépends. À la fin des années 1990, BMW a dû rappeler un modèle de 5 Series car plusieurs clients s’étaient plaints du fait que le GPS avait une voix féminine. La raison ? Ils ne supportaient pas qu’une femme puisse leur dicter les directions à prendre…

GPS navigation géolocalisation positionnement
Un GPS. Image d’illustration. // Source : Craig Piersma

Un autre exemple est édifiant : celui des entreprises de courtage au Japon. Dans Wired Speech, Clifford Nass s’intéresse à l’une d’entre elles, nommée Fidelity. Il explique qu’elle utilise des voix féminines pour renseigner les clients sur les cotations en bourse. Des voix masculines sont en revanche privilégiées lorsqu’il s’agit d’effectuer une transaction financière, c’est-à-dire une opération plus lourde de conséquences.

Comme le souligne le rapport de l’ONU, ce cliché se reflète dans des œuvres cinématographiques. L’intelligence artificielle derrière Terminator est sombre, violente. Les IA féminines elles, sont souvent à l’opposé de cette image. Dans le film Her, réalisé par Spike Jonze. Scarlett Johansson incarne (sans apparaître une seule fois à l’écran) une voix douce et chaleureuse qui séduit peu à peu le héros et le réconforte, l’aide à se sentir bien. Ironiquement, ce n’est qu’à partir du moment où cette voix s’émancipe et commence à avoir du répondant que les choses se gâtent.

Une voix neutre ?

Le fait que des schémas sexistes se reproduisent au travers des nouvelles technologies n’a rien de véritablement étonnant. Les IA présentent de nombreux biais, mais cela s’explique par le fait qu’elles sont entraînées par des humains, avec des bases de données faites par des humains. Ces derniers sont évidemment marqués par leur propre éducation.

Ceci est d’autant plus fort que le secteur manque encore de diversité. En août 2017, Wired a analysé la composition des équipes dédiées à l’intelligence artificielle dans les grandes entreprises de la tech. Le média a montré que seulement 10 % à 15 % des chercheurs étaient des femmes. Chez Google, sur 641 employés, on comptait environ 60 employées.

Des entreprises commencent à songer à des voix neutres pour remédier au problème. Celle-ci a été imaginée par un groupe d’activistes, linguistes et spécialistes de l’audio.

Le géant chinois Alibaba a aussi trouvé une parade intéressante. Son assistant vocal, AliGenie, a une voix de personnage de dessin animé qui peut sembler aussi bien féminine que masculine. Elle est parfois représentée sous une forme physique, sous forme d’un petit chat, dont on ne peut pas définir le sexe.

Partager sur les réseaux sociaux