Un responsable de Google a annoncé que le moteur de recherche pourrait bientôt favoriser dans ses résultats les sites qui offrent la plus grande vitesse d'affichage de leurs pages. Une modification plus fondamentale qu'il n'y paraît.

Internet n’a pas tant été une révolution pour la capacité offerte à chacun d’accéder à l’information que pour la capacité offerte à chacun de s’exprimer sur un pied d’égalité. « La terre est plate« , avait résumé en 1996 le journaliste Thomas Friedman dans une formule restée célèbre. Le petit marchand perdu au fin fond de la Corèze pouvait créer un site web et vendre ses produits à Taïwan sans discrimination. Le blogueur spécialisé dans son domaine pouvait écrire et être lu au moins autant de fois que les journalistes du Monde ou du New York Times, avec une influence parfois plus grande. Avec Internet, le tiers état peut s’exprimer avec la même force que la noblesse et la bourgeoisie. Ce que Joël de Rosnay et Carlo Revelli, fondateurs d’Agoravox, avaient appelé la Révolte du Pronétariat.

Mais le pronétariat est peut-être menacé. A la tentation des fournisseurs d’accès à Internet de mettre fin à la neutralité du net (qui est la condition sine qua non de l’égalité devant la liberté d’expression sur Internet), s’ajoute la tentation des moteurs de recherche de mettre fin à la neutralité des résultats qu’ils s’étaient eux-mêmes imposés, de manière difforme. Il est vrai que cela fait bien longtemps que Google et ses concurrents filtrent leurs résultats de recherche pour écarter les sites manifestement illicites, et qu’ils suppriment parfois des résultats à la demande de tiers. Mais pour peu que l’on respecte des règles plus ou moins explicites relatives au contenu, qui sont les mêmes pour tous, chacun a la même chance d’accéder à un bon référencement de ses pages. Chose qui pourrait changer.

Avec Google Chrome, le leader des moteurs de recherche est devenu obsédé par la vitesse d’exécution du web. Le web devient pour Google un système d’exploitation, qu’il convient de fluidifier au maximum. Il a ainsi dévoilé récemment un protocole, SPDY, dédié réduire la latence des pages web. Mais voilà qu’en plus Google songe à hierarchiser ses résultats de recherche, non plus seulement en fonction de la qualité du contenu proposé et de leur pertinence par rapport aux recherches, mais aussi en fonction de leur rapidité de chargement. C’est Matt Cutts, responsable de la chasse aux spams chez Google, qui l’a confié lors de la conférence PubCon.

Cutts a ainsi révélé que des pressions existaient en interne, exercées directement par les co-fondateurs Larry Page et Sergey Brin, pour prendre en compte la vitesse d’affichage des pages dans les résultats de recherche proposés. Il a expliqué que la direction souhaitait rendre le web aussi fluide que la lecture d’un magazine où l’on feuillète les pages parfois à grande vitesse.

Mais pour parvenir à une grande vitesse d’affichage, les petits marchands ou les petits blogueurs ne disposeront pas des mêmes armes que les grands groupes, mieux équipés en ingénieurs et serveurs à forte capacité d’accueil. Pour eux, le monde ne sera plus plat. D’autant moins si les FAI mettent à exécution leurs projets, et proposent des tuyaux plus rapides aux éditeurs de sites qui auront les moyens de payer une bande passante premium.

Partager sur les réseaux sociaux

Articles liés