Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Coup d'état du Roi Obama : quand Google relaie des mensonges via son Assistant

Les États-Unis sont une monarchie, les antifascistes sont des gens qui considèrent tout ce qui n'est pas collectif comme nazi, Obama prépare un coup d'État... autant de mensonges fièrement énoncés par Google Home, grâce à la fonction snippet de Google. 

Si Google est votre moteur de recherche par défaut, il est fort probable que vous ayez déjà vu un snippetCes informations contextualisées directement sur la page des résultats sont extrêmement pratiques au quotidien : par exemple, il vous suffit de taper « hauteur de la Tour Eiffel » pour que Google vous donne la réponse sur la page. C'est la même chose pour des dates historiques, des personnalités publiques, des œuvres culturelles etc. Récemment, Google s'est même mis à dévoiler des tutoriels ou des tableaux comparatifs sur ses pages de résultat. Il est ainsi possible d'afficher une recette de cuisine ou la couverture réseau des opérateurs français directement sur Google.

Google met autant d'efforts dans ces fonctionnalités pour deux raisons. La première, c'est évidemment de répondre toujours plus rapidement aux requêtes des utilisateurs de son moteur de recherche -- c'est un peu la stratégie derrière AMP. La seconde entre dans le champ du futur : c'est avec ces résultats que Google nourrit son Assistant (et donc Google Home). Quand vous posez une question à Google Home, il vous donnera une réponse basée sur son « savoir », en précisant sa source. Une réponse classique commence par un « D'après Wikipédia », « D'après Le Figaro », « D'après Numerama », etc.

Mais que se passe-t-il quand le snippet est faux ? C'est là que cela se complique, car Google est loin d'être infaillible. Ainsi, à la question de savoir si Barack Obama était en train de préparer un coup d'état, un utilisateur de Google Home a entendu son appareil lui dire que, effectivement, l'ancien président des États-Unis préparerait un coup d'état avant la fin de son mandat. Ce qui ne s'est pas produit en plus d'être une affabulation totale, mais c'est ce que Google a retenu.

À la suite de plusieurs plaintes, le moteur de recherche a enlevé ce résultat qui était remonté par une optimisation SEO de qualité et de nombreuses recherches qui finissaient sur cette page. Et pourtant, une enquête de The Outline montre que des tas de snippets mentent toujours sur des sujets plus ou moins graves, scientifiques, historiques ou politiques. La quantité de ces mensonges ne peut pas être mesurée, car elle est aussi vaste que la sémantique : à la question « Qui est le président des États-Unis ? », Google répondra probablement autre chose qu'à la question « Qui est le roi des États-Unis ? »... sans corriger l'énoncé, Google transforme du tac au tac le pays en une monarchie.

Vu la quantité colossale de contenu présente sur le web, il semble inhumain de tout vérifier. Google laisse d'ailleurs ce travail à ses algorithmes, qui se basent sur des indices laissés par les utilisateurs. Mais même comme cela, le procédé pose une éternelle question : sur des réponses qui ne sont pas tranchées, qu'est-ce que l'algorithme va choisir ? À la multiplication de ces formats s'ajoute une nouvelle difficulté pour Google, liée directement à son Assistant oral : sur un moteur de recherche, l'utilisateur a une posture bien plus active. Il peut cliquer sur le lien, vérifier la source, chercher d'autres résultats, regarder les résultats annexes etc.

Quand il pose une question à son Google Home, l'utilisateur n'a qu'une réponse, absolue et définitive. Qui peut donc être une erreur ou un mensonge.