Le système Smart Compose de Google permet de suggérer des phrases lors de la rédaction des mails. Google va en retirer les pronoms genrés, à la suite d'erreurs.

Depuis quelques mois, Google a ajouté une fonctionnalité de saisie automatique sur Gmail. Ce système, qui s’appelle Smart Compose, est une version moderne de notre bon vieux T9 : on commence à écrire un email, et la suite de notre phrase nous est suggérée. Il est pratique, mais n’est pas sans faille. Il arrive notamment qu’il ne trouve pas le véritable genre de nos interlocuteurs. Pour y remédier, l’entreprise a décidé de supprimer les pronoms des phrases suggérées, comme le rapporte l’agence Reuters dans un article posté mardi 27 novembre.

Pour Smart Compose, les investisseurs sont des hommes

Google avait remarqué que l’intelligence artificielle sur laquelle sont basées les suggestions présentait des biais. Elle se trompait parfois entre « him » (pronom désignant le masculin et «  her » (pronom désignant le féminin). Un chercheur qui travaille chez Google avait par exemple tapé dans la fenêtre de rédaction d’un email « je rencontre un investisseur la semaine prochaine ». Gmail avait alors suggéré pour suite « Voulez-vous le rencontrer », alors même que rien n’indiquait que l’investisseur était un homme – en anglais, le terme est exactement le même pour un homme et une femme, contrairement au français.

Le logo Google // Source : Thomas Hawk

Paul Lambert, chef de produit chez Google, a indiqué à Reuters que lui et son équipe avaient tenté de remédier à cela de différentes façons, sans succès. Ils ont finalement décidé de retirer tous les pronoms des suggestions Smart Compose.

L’IA avait été entraînée avec de vieux emails

Dans certains cas, le mégenrage peut s’avérer problématique. Il peut contribuer à reproduire des stéréotypes de genre, heurter des personnes LGBT, ou se solder par des annonces d’emplois peu inclusives envoyées par mail, par exemple.

Le biais était lié, comme dans beaucoup de cas similaires, à la manière dont l’intelligence artificielle a été entraînée. Pour apprendre à continuer les phrases des utilisateurs de Gmail, celle-ci a du « lire » de vieux mails envoyés via le service. Dans le cas des investisseurs, l’IA a appris qu’un investisseur avait plus de chances d’être un homme qu’une femme. Elle en a déduit que c’était toujours le cas.

Selon Paul Lambert, les IA « peuvent aussi refléter les biais cognitifs humains  » . « Etre conscients de cela est un bon début, et nous continuons de discuter sur la façon dont nous pouvons le gérer », a-t-il dit.

À lire sur Numerama : Gmail  : comment désactiver les réponses suggérées par l’algorithme de Google

Crédit photo de la une : Gmail / Google

Partager sur les réseaux sociaux