La taille, talon d'Achille des serveurs dédiés au cloud computing ?

Par 27 octobre 2009
Mots-clés : Digital Working, Europe

La croissance annoncée de la capacité de stockage des serveurs hébergeant des solutions d'informatique dans les nuages ne se fera pas sans conséquences. Bristol propose un outil pour l'anticiper et adapter les infrastructures.

Pour assurer le bon fonctionnement et la sécurité des centres de données dédiés au cloud computing et dont la taille est de plus en plus importante, un chercheur de l’université de Bristol a développé un outil de simulation des serveurs dans les nuages baptisé Speci*. Le but est d’identifier les économies d’échelles potentielles et leurs performances en fonction de divers critères. Le programme s’intéresse à la taille des centres de données et à la structure de leur middleware. Soit la couche logicielle qui sert d’interface entre l’ensemble des éléments. Parmi les paramètres étudiés, le comportement de la partie du middleware chargée de reconnaître les composants faisant défaut dans le réseau. Le middleware doit en effet être à même de localiser ces liens "morts" pour continuer à assurer la communication de ses consignes.
Un middleware distribué
Les simulations menées avec Speci tendent à montrer que l’augmentation du nombre de liens multiplierait celui des liens brisés, menaçant la diffusion de l’information. Le chercheur britannique en conclut qu’une approche décentralisée de la gestion des centres de données est à privilégier lorsqu’on envisage des serveurs à grande échelle. Par exemple en répartissant le middleware en plusieurs composants chargés d’assurer la communication avec les noeuds du réseau. Ceux-ci appliqueraient ensuite les consignes localement. Autre problème : l’utilisation d’une structure centralisée ne permet qu’une économie d’échelle limitée.
L’apparition d’erreurs constantes
Le nombre de composants que peut gérer le middleware n’est en effet pas infini. Un autre facteur pousse à anticiper le comportement de serveurs dans les nuages de taille croissante : l’apparition "d’erreurs constantes". Etant donné la durée de vie des serveurs (environ 3 ans), une batterie de 500 000 serveurs impliquerait en effet le remplacement de 650 serveurs chaque jour. Une mesure à laquelle il est peu probable que les opérateurs de serveurs procèdent au fur et à mesure. Pour des raisons de coût on peut plutôt s’attendre à ce qu’ils les laissent en place et changent les racks entiers les plus affectés. Entre temps, la présence d’erreurs sera continuelle, affectant la performance générale.
* Simulation Program for Elastic Cloud Infrastructures

Mentions légales © L’Atelier BNP Paribas