Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Google va changer sa façon de présenter les résultats pour limiter les biais

Une nouvelle intelligence artificielle va aider Google à affiner les résultats des recherches. Elle doit permettre de mieux prendre en compte la situation des internautes. 

Bert va laisser sa place à MUM. Dit comme cela, la nouvelle annoncée le 29 mars 2022 lors d'une conférence de presse à laquelle Numerama a assisté, n'a pas grand-chose d'intéressant, et elle n'est pas vraiment compréhensible. Pourtant, il s'agit d'un changement de taille pour Google, et pour les millions de recherches effectuées chaque jour sur le moteur de recherche. 

Dans les semaines qui viennent, Google va se mettre à utiliser MUM, un nouveau modèle d'intelligence artificielle, afin d'affiner le plus possible les résultats. Concrètement, ce changement aura des répercussions sur la façon dont les réponses sont présentées aux internautes, et Google assure que ce nouveau système rendra les recherches beaucoup plus sûres. 

L'intelligence artificielle MUM va changer les résultats de Google

MUM, qui tient son nom de Multitask Unified Model (modèle multitâche unifié), est présenté par Google comme une petite révolution. 1 000 fois plus puissant que son prédécesseur, Bert, et entrainé pour fonctionner sur 75 langues, MUM doit permettre à Google de détecter automatiquement et avec plus de précision un grand nombre de nuances dans les recherches. Cette fonctionnalité permet surtout, d'après Google, de mieux appréhender les recherches faites lors de situations de danger pour les internautes. 

Concrètement, MUM permet au moteur de recherche de montrer des résultats appropriés aux personnes recherchant des termes liées au suicide, aux violences conjugales, aux agressions sexuelles, et à la consommation de produits dangereux. 

Google va changer sa façon de faire des recherches. // Source : Oneshoot / Nounproject

MUM a « le potentiel de transformer la façon dont Google traite les tâches complexes », précise le moteur de recherche. MUM se base sur un nouveau cadre, le T5 text-to-text, que Google a évoqué pour la première fois en 2020. C'est ce nouveau cadre qui va permettre au moteur de recherche d'affiner ses résultats — et à terme donc, de proposer des réponses plus sures. 

L'IA a un rôle à jouer pour diminuer les biais

L'intelligence artificielle a un rôle important à tenir dans la façon dont sont traitées les recherches des moteurs de recherches : ces derniers reflètent souvent les biais de la société. C'était normalement le cas pour les recherches sur les requêtes sur le mot « lesbienne » : comme Numerama le soulignait en 2019, elles ne renvoyaient que vers des sites pornographiques. Google avait finalement changé son algorithme quelques mois après notre article pour qu'il mette en avant des résultats plus neutres. 

La présence de l'intelligence artificielle dans les recherches Google a un impact considérable sur la façon dont les informations sont présentées aux internautes — et donc, sur la façon de voir le monde. Google explique aujourd'hui que depuis l'arrivée de Bert, le prédécesseur de MUM, en 2019, il a réussi à affiner ses réponses. En 2021, Bert aurait permis de réduire de 30% les « résultats choquants inattendus », c'est-à-dire, des réponses non appropriées aux questions posées. Bert aurait été particulièrement efficace pour les recherches liées à l'ethnicité, à l'orientation sexuelle, et au genre, explique Google. 

Si les intelligences artificielles peuvent aider à diminuer les préjudices, il ne faut pas non plus oublier qu'elles peuvent également les reproduire. Les algorithmes reproduisent les biais de la société, et il existe de nombreux exemples où leur utilisation a renforcé les inégalités. Si Bert a, selon les données de Google, permis de réduire ces problèmes, rien ne garantit que les IA continueront de faire de même.