Geoffrey Hinton a-t-il exprimé ses regrets un peu trop vite ? Plusieurs ex-employés de Google accusent l’ancien ingénieur d’opportunisme. Hinton aurait invisibilisé des critiques sur l’IA en interne.

La vérité est parfois multiple. Le 1er mai, Geoffrey Hinton, un des pionniers de l’IA, spécialiste des réseaux neuronaux, affirmait au cours d’une interview avec le New York Times avoir quitté Google pour s’exprimer plus librement sur les dangers de l’intelligence artificielle. Il disait alors regretter une partie de son travail et se consoler avec « l’excuse habituelle : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait ».

Geoffrey Hinton expliquait alors craindre des dérives en matière de fausses informations. Pire encore, l’ingénieur redoutait un scénario catastrophe digne d’un film de science fiction, dans lequel la machine dépasserait l’intelligence humaine (l’arrivée d’une AGI) avec de graves répercussions sur la société. Un poncif largement critiqué depuis.

Une carrière avec des œillères

À en croire le témoignage de ses anciennes connaissances chez Google, Geoffrey Hinton aurait pris connaissance des problèmes éthiques liés à l’IA très récemment. En 2020, lorsque Timnit Gebru a été licenciée par Google après avoir publié une étude scientifique sur les biais des systèmes d’intelligence artificielle, Hinton serait resté muet.

Timnit Gebru
Timnit Gebru, licenciée par Google en 2020. // Source : Kimberly White

L’étude en question évoquait les coûts environnementaux, les coûts financiers, « les stéréotypes, le dénigrement, l’augmentation de l’idéologie extrémiste et les arrestations injustifiées » qui peuvent être induits par les grands modèles de langage (LLM).

Un réveil tardif critiqué sur Twitter par Margaret Mitchell, jadis coresponsable de la division éthique pour l’IA chez Google, également licenciée peu après l’affaire : « Cela aurait été le moment pour le Dr. Hinton de dénormaliser le licenciement de Timnit Gebru (sans parler de ceux qui ont suivi récemment). Il ne l’a pas fait. »

Et d’ajouter : « C’est ainsi que fonctionne la discrimination systémique. Les personnes en position de pouvoir normalisent. Ils pratiquent la discrimination, ils regardent leurs pairs la pratiquer, ils ne disent rien et continuent. »

Invisibilisation des préjudices actuels de l’IA

Pire encore, interrogé sur CNN le 5 mai, Geoffrey Hinton continue d’invisibiliser les faits découverts par Timnit Gebru. Ses idées ne seraient pas « aussi existentiellement sérieuses » que sa propre théorie de la domination de la machine sur l’homme.

Les minorités sont parfois invisibilisées par les LLM. // Source : Gerd Altmann / Pixabay
Les minorités sont parfois invisibilisées par les LLM. // Source : Gerd Altmann / Pixabay

« Il est stupéfiant que quelqu’un puisse dire que les préjudices [de l’IA] qui se produisent actuellement – et qui sont ressentis de la manière la plus aiguë par les personnes historiquement minorisées, comme les Noirs, les femmes, les personnes handicapées, les travailleurs précaires – ne sont pas existentiels », estime de son côté Meredith Whittaker, présidente de la Signal Foundation et chercheuse en IA, relayée par Fast Company.

Ex-Googler, Meredith a, elle aussi, été évincée de Google en 2019. Google lui aurait reproché d’avoir milité contre un contrat avec l’armée américaine au sujet d’une technologie d’IA pour drone. Whittaker reproche à Hinton de continuer à discréditer les critiques autres que les siennes.

Opportunisme mal placé ou invisibilisation du travail de ses collègues ? Les récents propos de Geoffrey Hinton sont plus que jamais à relativiser.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !