Pour garder une trace des résultats proposés par les résultats de recherche à certaines périodes, un institut américain propose de les archiver. Le but ? Établir une forme de responsabilité pour les géants comme Google qui mettent en avant des fake news par erreur avant que leurs algorithmes n'ajustent les résultats.

Si certaines initiatives, comme l’Internet Archive, compilent depuis déjà 21 ans les sites Internet pour s’assurer qu’ils restent consultables malgré leur disparition, les résultats affichés par les moteurs de recherche, eux, n’ont pas droit au même traitement de faveur.

Impossible, donc, d’archiver les mauvais résultats de Google, constatés par exemple au moment des tueries de Las Vegas et de Sutherland Springs — qui ont depuis conduit le géant à modifier ses algorithmes. Ou encore de savoir quels résultats s’affichaient sur les mots-clé liés au Brexit avant le vote du Royaume-Uni — une saisie sur Google à ce stade étant forcément « subjectivisée » par votre historique de navigation, l’évolution de la recherche au fil du temps, etc.

C’est justement pour pallier ce problème de responsabilité et l’absence d’un suivi neutre que Robert Epstein, auteur et ancien éditeur de Psychology Today, aujourd’hui membre de l’Institut sur la recherche comportemental et la technologie, propose d’archiver les résultats fournis par les moteurs de recherche.

« Méthode d’influence »

Il explique sa logique à The Outline : «  On parle ici de nouvelles méthodes d’influences qui n’ont jamais existé par le passé, et qui affectent les décisions de milliards de personnes chaque jour sans qu’elles le sachent et sans laisser de trace ».

Robert Epstein a ainsi pu réaliser, avec ses collègues, un test illustrant ce qu’il appelle « l’effet de manipulation des moteurs de recherche ». Plusieurs utilisateurs ont recouru à Kadoodle, une simulation de moteur de recherche, pour voir si, en période d’élection, la mise en avant des résultats les plus favorables aux candidats politiques pouvait influencer les intentions de vote. Résultat : un candidat pouvait ainsi bénéficier d’un regain d’intérêt électoral évident.

«  Il faut que nous puissions voir et enregistrer ce que les algorithmes montrent aux gens. Regarder le code ne sert à rien : il faut qu’on puisse voir ce que chacun visualise sur son écran » conclut Robert Epstein. L’équipe dédiée à ce projet a notamment archivé plus de 13 000 recherches Yahoo, Google et Bing liées à l’élection présidentielle américaine entre mai et novembre 2017, ainsi que les près de 100 000 pages de résultats liés. Elle espère convaincre de la viabilité de son système pour rendre les géants de la tech plus responsables.

Partager sur les réseaux sociaux