En dépit d'une déferlante de nouvelles plateformes préconfigurées et d'appliances applicatives prêtes à l'emploi, le cloud computing n'est pas un produit sur étagère. Le chemin vers le cloud computing exige une étude approfondie, une sélection de services, de prestataires et d'approches méthodologiques. Le datacentre, véritable clé d'entrée du cloud computing, s'industrialise et se standardise pour faciliter la migration des entreprises, quelle que soit leur taille et leur domaine d'activités
L’infrastructure gagne sa propre intelligence
Le Data centrer regroupe les ressources informatiques pour mieux les combiner. Il doit délivrer les accès à la demande, contrôler la diffusion des traitements et des données et réduire les coûts d’exploitation. L’infrastructure du Data centrer est confrontée à plusieurs défis. La haute disponibilité accrue des services, la densité croissante des unités de traitements et la recherche d’efficacité énergétique forment trois axes d’amélioration. Pour progresser, ses pistes empruntent de nouveaux standards, des mécanismes de virtualisation et de nouveaux automatismes fondés sur des outils de mesure et de supervision. Les centres de données et de traitements informatiques n’échappent pas aux transformations récentes de nos sociétés, aux activités toujours plus globales. L’entreprise réclame plus de connectivité pour atteindre tous les marchés qu’elle convoite. Ses services de collaboration en temps réel exigent une infrastructure dynamique, plus simple à faire évoluer et plus simple à exploiter. Le Data centrer évolue logiquement dans ces mêmes directions. Actuellement, la globalisation et la standardisation des ressources informatiques va de pair avec une réduction des investissements. Il s’agit de faire plus de calculs, de transferts et de stockage, avec moins de matériels, moins d’informaticiens et, si possible, en consommant moins. Les serveurs à lames virtualisés répondent à ces exigences. Ils se multiplient dans les derniers sites surgis de terre. Ces bâtiments ne puisent plus d’eau en profondeur, pour se refroidir : ils privilégient les échanges de flux d’air, évitant ainsi la propagation de bactéries comme la légionelle, qui provoque la légionellose. Ils limitent aussi les émissions de carbone et leur empreinte globale sur l’environnement. Plus que la santé et le développement durable, l’efficacité énergétique guide l’évolution des équipements du centre de données.
Une industrialisation de l’informatique
Mais, à quoi bon investir dans une plateforme serveur plus verte – dont les coeurs se mettent en veille lorsque l’activité baisse – si la ventilation du site consomme toujours autant ? Cette situation paradoxale est en train de changer. “La variation dynamique de charges s’appuie sur des composants plus efficaces en énergie et sur des applications pilotant les écarts dans la salle, explique Jacques Perrochat, le directeur des solutions pour datacentres d’APC, filiale du groupe Schneider Electric. Grâce à la virtualisation des serveurs, on peut déplacer les machines virtuelles les plus gourmandes vers les zones les plus froides du datacentre”. De telles astuces font boule de neige car les systèmes de refroidissement, de ventilation et de calculs vont interagir progressivement, au travers d’une supervision commune. Réduire la consommation électrique du Data centrer devient un objectif partagé globalement. Les baies de stockage et les équipements réseau disposent ainsi de mise en veille ou en hibernation lorsqu’ils ne sont pas sollicités. Pour les plateformes de reprise d’activités, sollicitées seulement en cas d’incident, l’économie annuelle sera substantielle. En résumé, l’efficacité énergétique accompagne la recherche d’économies, de performances, de disponibilité et de sécurité. L’hébergement suit des processus industrialisés définis par un raisonnement global, servant tous les clients du site. A l’échelle d’une entreprise, la sécurité informatique, parce qu’elle est traitée au cas pas cas, provoque des procédures plus lourdes et souvent inefficaces.
L’ultra-convergence des réseaux
Le Data centrer de nouvelle génération réduit le nombre de ses néons, de ses racks et même de ses câbles et commutateurs, dans un souci de rationalisation et d’efficacité énergétique. Il encourage la virtualisation des traitements et des entrées/sorties, à grande échelle. La convergence du réseau de stockage (SAN) et des réseaux locaux de serveurs limite ainsi le nombre de protocoles employés et d’interventions manuelles. En se rapprochant des noeuds Internet – le réseau étendu par excellence – l’hébergeur peut offrir un vaste choix d’opérateurs d’accès à ses clients. Si une entreprise veut tisser des centaines de liens pour interconnecter ses succursales, l’externalisation via un nuage privé requiert de simples accès VPN. Ces derniers agrègent tous les flux Web et métier, de tous les services hébergés comme la téléphonie IP ou la visioconférence, en respectant les priorités de l’entreprise
Plus de performances par coeur et par KWh
Les centres serveurs hébergent des plateformes informatiques de densité croissante, le nombre de coeurs doublant tous les deux ans dans les microprocesseurs. Un processeur Nehalem (Intel) est dix fois plus puissant que son ancêtre âgé de cinq ans seulement. Et il consomme moins d’énergie, à pleine charge, que lorsque son aîné tournait à vide