P4P : le successeur du P2P consomme moins pour donner plus

Par 22 août 2008

La nouvelle technologie permet d'accélérer les performances et les vitesses des téléchargements en pair-à-pair grâce à un système de géolocalisation des fichiers.

Pour concilier les gros besoins en bande passante des applications pair à pair avec la régulation des réseaux par les fournisseurs d'accès à Internet, une nouvelle architecture Web se fait jour : le P4P. Inventée par des chercheurs des universités de Yale et de Washington, cette technologie de téléchargement avait déjà retenu l'attention de L'Atelier. Elle repose, comme le P2P, sur l'échange de fichiers sans serveur central. Mais elle y ajoute un paramètre supplémentaire : la localisation géographique. Le nouveau système vient d'être officiellement présenté à l'occasion de la conférence ACM Sigcomm 2008 qui se tient actuellement à Seattle. Comme l'explique Arvind Krishnamurthy, professeur en science et en ingénierie informatique à Washington, "les test ont montré que grâce au P4P, la charge du réseau pourrait être divisée par cinq, sans que sa performance soit compromise."Le P4P promet même des vitesses de téléchargement au moins 20 % supérieures à celle du P2P première génération.
Des téléchargement au moins 20 % plus rapides
L'architecture du trafic Web traditionnel est telle que les points de départ et d'arrivée des flux d'informations sont fixes. Du contenu voyage par exemple entre un serveur d'Amazon.com jusqu'à un écran d'ordinateur new-yorkais et un fournisseur d'accès à Internet choisit la route nécessaire entre ces deux points. Dans le cas du peer-to-peer, il existe au contraire plusieurs possibilités de source data puisque des milliers d'internautes échangent simultanément des parties de fichier. Problème : le choix de la source est aléatoire. Une personne peut aussi bien télécharger une vidéo provenant de l'autre bout du monde que de son quartier. Selon Richard Yang, un professeur en science informatique à Yale, "les réseaux en P2P ne tiraient donc pas suffisamment partie de la flexibilité du système". Le transfert de données entre ordinateurs proches étant plus rapide qu'entre machines éloignées, il suffit de prendre en compte la localisation de la source.
Eviter les goulots d'étranglement
Le P4P promet ainsi des performances bien supérieures au P2P. Ses inventeurs ont calculé que l'ensemble moyen de données en P2P parcourt plus de mille six cent kilomètres et change cinq fois de plate-forme. Avec le nouveau système, les données ne parcourent plus en moyenne que deux cent cinquante kilomètres. Surtout, elles changent à peine une fois de plate-forme, ce qui réduit considérablement le trafic Internet entre des villes où se produisent régulièrement des goulots d'étranglement. Pour le moment, seuls 6 % des échanges de fichier se font entre des ordinateurs situés au même endroit. Ce chiffre devrait atteindre 58 % avec le P4P. Bref, le P4P devrait permettre un meilleur équilibrage des ressources en bande passante. Le groupe de travail formé l'an dernier autour du P4P comprend désormais plus de quatre-vingt membres, dont des représentants des principaux FAI et fournisseurs de services américains.

Mentions légales © L’Atelier BNP Paribas