L'algorithme sur lequel repose le service Google Traduction contenait des biais sexistes. L'entreprise a effectué une mise à jour après l'avoir remarqué lors de tests.

Après Gmail, Google a dû s’occuper des biais sexistes de l’intelligence artificielle (IA) sur lequel repose son service de traduction automatique. Une mise à jour a été effectuée, raconte The Next Web dans un article publié le vendredi 7 décembre.

Des métiers considérés comme masculins

Google avait remarqué que son outil Translate (Traduction, en français) avait tendance à assigner des genres de manière systématique à certains adjectifs ou certains métiers, sans que cela ne soit justifié.

L’infirmier est une femme, le docteur un homme, selon Google Traduction. // Source : Captures d’écran Google Traduction / Numerama

«  Historiquement,  [Google Traduction] a toujours proposé une seule traduction pour une demande, même si elle pouvait varier et si elle pouvait être soit au féminin soit au masculin. (…) Il a par inadvertance reproduit des biais genrés, a expliqué Google à The Next Web. Par exemple, la traduction se faisait au masculin lorsqu’il y avait des mots comme « strong [« fort »] ou « doctor » [« docteur.e »], et au féminin lorsqu’il y avait « nurse » [« infirmier » ou « infirmière »] ou « beautiful » [« beau » ou « belle »]. »

Google a corrigé ce biais lorsqu’il s’en est aperçu. Il propose désormais deux options de traduction, l’une au féminin, l’autre au masculin, et laisse l’utilisateur du service décider de ce qui lui convient le mieux.

Un biais lié à la manière dont sont entraînées les IA

La mise à jour n’est pour l’instant disponible que sur ordinateur, et pour des traductions de l’anglais au français, à l’italien, au portugais, et à l’espagnol. Elle s’applique également aux langues non-genrées, comme le turc, vers l’anglais. Elle sera bientôt étendue aux utilisations sur mobile, sur iOS et Android.

Avec la mise à jour, deux options sont proposées (ici, avec une traduction du turc à l’anglais). // Source : Capture d’écran Google Traduction / Numerama

Fin novembre, Google avait déjà repéré d’autres biais sexistes dans l’une de ses intelligences artificielles. Ce dernier servait à suggérer aux utilisateurs de Gmail la suite de leur email, à la manière d’un T9. L’entreprise avait finalement réglé le problème en retirant de ces suggestions tous les pronoms genrés.

Ces biais sont liés aux manières dont les IA sont entraînées, et surtout, aux matériaux avec lesquels elles le sont. Dans le cas de Gmail, l’IA avait tout appris de vieux emails envoyés. Elle avait vu par exemple plus d’investisseurs hommes dans ces mails, et en avait déduit que tous les investisseurs étaient des hommes.

Partager sur les réseaux sociaux