Qu'est-ce vraiment que le Peer-to-Peer ? Drôle de question, et pourtant la réponse s'éloigne aujourd'hui de plus en plus de la vérité. Le P2P est devenu synonyme d'échange de fichiers (serait-on tenter de spécifier "pirates"), alors qu'il s'agit d'une technologie bien plus globale qui pourrait remettre tout l'Internet sur de bons rails d'ici une dizaine d'années.

Dans un excellent article paru dans la revue Technology, Simson Garfinkel explique comment le P2P est appelé à se généraliser à l’ensemble du web pour en améliorer la fiabilité. En fait, c’est finalement un grand retour aux sources qui est en train de se produire avec la démocratisation de Kazaa, et surtout le développement de logiciels de P2P dédiés à d’autres fins que l’échange de fichiers, comme Skype pour la téléphonie via Internet.

Internet fut en effet créé à l’origine avec à l’esprit une architecture « de pair à pair », chaque internaute contribuant au savoir global partagé sur le réseau des réseaux. C’était le mythe d’un Internet vu comme un un gigantesque forum scientifique, où chaque ordinateur connecté était à la fois client et serveur. Mais de plus en plus le système « de pair à pair » (Peer-to-Peer) a évolué vers une architecture « de client à serveur », largement dominante aujourd’hui. Le problème est qu’en passant du Peer-to-Peer aux serveurs, Internet s’est globalement centralisé, et donc s’est largement fragilisé. Si un serveur tombe, les données qu’il contient deviennent inaccessibles. D’où le mot d’ordre donné : « décentralisation ! ». Du serveur DNS qui permet de contacter un site Internet à partir de son nom de domaine aux sites Internet eux-même, toute l’architecture du net peut être décentralisée à l’aide de réseaux Peer-to-Peer.

Le P2P : une surcouche réseau bénéfique pour Internet

Là où l’idée devient plus originale, c’est quand Simon Garfinkel explique que le P2P fonctionne comme une « surcouche réseau » (Overlay Network) qui vient remettre les choses comme elles devraient l’être. Pour que vous puissiez lire cet article hébergé sur le serveur de Ratiatum à Chicago, les informations ont normalement circulé jusqu’à vous à travers le monde par les routes les plus rapides et les plus fiables. Mais cette théorie n’est plus du tout vrai aujourd’hui. Les fournisseurs d’accès passent de nombreux accords avec leurs homologues étrangers pour utiliser respectivement certaines routes communes, et ainsi minimiser les coûts. Plutôt que d’emprunter les routes les plus rapides, les informations passent donc maintenant davantage par les routes les moins chères. Avec le Peer-to-Peer se crée une surcouche réseau qui force les paquets à emprunter les routes les meilleures, point par point, sans subir les stratégies financières des fournisseurs d’accès.

Les avantages de la « P2Pisation d’Internet » sont très nombreux, aussi bien d’un point de vue technique que politique. Techniquement, les problèmes de serveurs surchargés disparaitraient, et politiquement Internet deviendrait bien moins contrôlable qu’il ne l’est actuellement, que ça soit par les majors du disque ou les différents gouvernements. Selon Garfinkel, le Peer-to-Peer pourrait être généralisé à l’ensemble d’Internet d’ici dix ou quinze ans, si tant est que l’on veuille bien le solidifier plutôt que de l’affaiblir comme on le fait actuellement.

Lire l’article de la revue Technology :

« Pushing Peer-to-Peer », par Simson Garfinkel

Partager sur les réseaux sociaux

Articles liés