Pour accélérer les recherches locales, il faut multiplier les serveurs

Par 04 décembre 2009

Les moteurs de recherche peuvent être plus efficaces en décentralisant leurs bases de données. La proximité géographique réduit les coûts de fonctionnement... sous certaines conditions.

Les moteurs de recherche fonctionnent généralement sur un mode centralisé : c'est-à-dire qu'ils disposent d'une base de données contenant les informations et des données additionnelles comme le cache, répliquée sur plusieurs gros centres de données répartis dans le monde. Une équipe barcelonaise de Yahoo! Labs propose d'adopter une approche plus distribuée : l'index et les données additionnelles seront répartis sur un grand nombre de plus petits serveurs. Sachant que chacun d'entre eux hébergera des informations locales et une petite proportion de données plus générales répliquées sur tous les serveurs. Ce qui fait que la majorité des requêtes concernant un endroit bien précis obtiendront une réponse en se référant à un centre de données local.
Réorganiser le partage des données
Pour les autres, il faudra chercher l'information en s'adressant aux différents centres. Dans cette optique, le nombre de serveurs sollicités pour une recherche sera significativement réduit. « C’est une méthode intéressante pour réduire les coûts de recherche », affirme à L’Atelier François Bourdoncle, cofondateur d’Exalead, qui développe un système d'indexation européen. « Ensuite tout dépend de l’échelle et de l’usage qu’on fait de ce système ». Exalead annonce avoir réalisé près de 50% d’économie en découpant leur index de manière similaire à celle promue par les ingénieurs de Yahoo! « Cette décentralisation est particulièrement utile en Europe où les recherches locales, aux identités géographiques fortes, occupent une grande place ».
Quelques réticences
Par contre, sur une plus grande échelle comme celle des Etats-Unis (un tiers des recherches globales), les gains seraient beaucoup moins importants. Quelques problèmes se posent encore quant à la multiplication des serveurs. Les résultats obtenus pourraient être très différents en fonction de la provenance des recherches. De plus, les chercheurs espagnols de Yahoo ! Labs avouent qu’un petit nombre de ces recherches devrait être encore 20 à 30 % plus longues que la normale à aboutir. « Pour les grands moteurs de recherche, cela pourrait multiplier les risques de congestion des réseaux et de latence élevée », confirme François Bourdoncle. Et de conclure : « Google, qui accueille la majorité des recherches mondiales, a refusé cette technique ».

Mentions légales © L’Atelier BNP Paribas