Facebook a profité de sa conférence annuelle destinée aux développeurs pour aborder la question des biais dans ses IA. Pour tenter de lutter contre leur sexisme ou leur racisme, l'entreprise adopte un cadre censé rendre l'IA plus inclusive.

Facebook a profité de la F8, sa conférence annuelle destinée aux développeuses et développeurs, pour annoncer son souhait de rendre l’IA plus inclusive. Le 1er mai 2019, le réseau social a évoqué sa volonté de créer un cadre plus rigoureux pour éviter que ses intelligences artificielles aient des biais sexistes ou racistes.

Lade Obamehinti, responsable de la stratégie technique dans l’équipe de réalité augmentée et de réalité virtuelle de Facebook, a pris la parole lors de cette conférence pour expliquer comment l’entreprise a élaboré ce nouveau cadre. Elle a raconté une expérience qu’elle avait vécue lors d’un test, qui impliquait la technologie Portal, une enceinte axée sur la visioconférence. Lors du test, elle était en train de parler à l’un de ses collègues du menu de son petit déjeuner. Alors qu’elle estimait être « le point d’intérêt visuel », la caméra a pourtant effectué un zoom vers le collègue de Lade Obamehinti, un homme blanc. Mme. Obamehinti est une femme noire.

F8 2019 Day 2 Keynote

Hear from CTO Mike Schroepfer and other Facebook leaders about the latest technology and innovation from our family of apps.

Publiée par Facebook for Developers sur Mercredi 1 mai 2019

Pour éviter que cela ne se reproduise, elle a eu l’idée de concevoir ce cadre afin de rendre l’IA plus inclusive. Les biais sexistes et racistes des algorithmes suscitent des interrogations et ont des conséquences directes et concrètes pour les utilisateurs des technologies : une IA plus inclusive aide aussi à garantir qu’une même technologie fonctionnera équitablement pour tous les utilisateurs et toutes les utilisatrices, quelle que soit la couleur de leur peau.

Plus de diversité dans les bases de données

En analysant les données utilisées pour entraîner la caméra de Portal, Lade Obamehinti a découvert que les couleurs de peau (réparties en trois groupes, « claire », « médium » et « foncé ») et les genres (masculin et féminin) y étaient inégalement répartis. La base de données a été enrichie avec de nouvelles informations, incluant des personnes de genre, de couleur de peau et d’âge différents.

Une étiquette Facebook. // Source : Pexels (photo recadrée)

La vision n’est pas le seul axe sur lequel Facebook veut travailler pour tenter de rendre ses IA plus inclusives. L’entreprise essaye aussi d’intégrer davantage les dialectes, l’âge et le genre dans ses système impliquant la voix. « Ce cadre d’intelligence artificielle inclusive est maintenant utilisé par de nombreuses équipes produits chez Facebook et a été intégré dans le développement de nouvelles fonctionnalités », écrit Facebook dans un communiqué.

Tenir compte des dialectes dans les commandes vocales

L’entreprise cite la réalité virtuelle et la réalité augmentée. La cadre d’IA plus inclusive est notamment utilisé comme référence par les ingénieurs de Spark AR, la plateforme de réalité augmentée de Facebook où des commandes peuvent être déclenchées avec la main (ce qui suppose que l’algorithme reconnaisse diverses couleurs de peau). Ce nouveau cadre sert aussi de repère aux équipes d’Oculus, pour que les commandes vocales de la réalité virtuelle tiennent davantage compte des dialectes.

Ce cadre pour une IA plus inclusive sera-t-il suffisant pour prémunir tous les futurs algorithmes Facebook de biais sexistes ou racistes ? « Nous sommes loin d’avoir fini », a reconnu Lade Obamehinti au cours de cette conférence. Les géants de la tech sont encore nombreux à être confrontés au problème, comme Google ou Amazon récemment.

Partager sur les réseaux sociaux