Interview de Cédric Georgeot, e-novatic
➜ Solutions & Logiciels : Pourquoi et comment la virtualisation des serveurs conduit-elle l'entreprise à revoir son infrastructure de stockage et de sauvegarde ?
• Cédric Georgeot : La mise en oeuvre d'une infrastructure virtuelle offre l’occasion d’analyser les serveurs et les données numériques en planifiant l’évolution des capacités. On segmente les ressources en définissant des niveaux de criticité et de protection. Les gains sont nets au niveau de la réduction des volumes, des délais de sauvegarde et de restauration. Pour pallier l'arrêt de plusieurs serveurs virtuels, en cas de panne d’une plateforme physique, on met en oeuvre les mécanismes de haute disponibilité intégrés aux hyperviseurs : vMotion/HA pour VMware et Live Migration pour Microsoft, par exemple. Ils requièrent l'accès, pour plusieurs serveurs physiques, à une même ressource de stockage afin de pouvoir basculer les serveurs virtuels sur un autre serveur physique, en cas de panne. La première étape consiste donc, en migrant vers une infrastructure virtuelle, à passer d'un système de stockage DAS, de disques attachés localement à un serveur, vers une baie de disques NAS connectée au réseau ou vers une solution SAN, un réseau dédié au stockage, encore plus performante. On doit bien planifier l’évolution des IOPS (entrées-sorties par seconde des flux base de données, de messagerie…) et le débit (Mo/s pour des flux vidéos, fichiers…) des VM sur le stockage pour orienter le choix vers une solution NAS, vers un SAN iSCSI ou un SAN fibre optique.
➜ SL : Les machines virtuelles sont-elles mal protégées ?
• CG : Grâce aux mécanismes intégrés aux hyperviseurs, les machines virtuelles sont sécurisées mais elles ne sont pas redondées ! En fonction des exigences, la réplication répond à ce type de problématique en vue de mettre en oeuvre un PRA (Plan de Reprise d'Activité) ou un PCA (Plan de Continuité d'Activité). La réplication entre serveurs existe sous forme synchrone et asynchrone. La première nécessite des prérequis lourds et onéreux pour obtenir une reprise d'activité quasi-instantanée, pratiquement sans perte de données. La seconde fait varier ses deux critères en fonction des besoins. C’est celle qu’on retient le plus souvent dans les PRA. La mise en oeuvre des mécanismes de haute disponibilité et de réplication du stockage ne remplace en aucun cas une sauvegarde. La sauvegarde d'environnement virtuel se différencie d'une sauvegarde traditionnelle par la rationalisation des serveurs, d'où l’intérêt croissant pour la déduplication. Dans un environnement classique, le serveur de sauvegarde centralisé dialogue avec un agent installé sur chaque serveur à sauvegarder. Il en résulte un coût d'implémentation et de maintenance très élevé. En environnement virtualisé, la sauvegarde présente un avantage très concurrentiel : la plupart des éditeurs commercialisent des agents spécifiques et/ou s’appuient sur les API des hyperviseurs. Ainsi, l'agent est-il capable de sauvegarder à chaud l'intégralité de la machine virtuelle mais également son contenu. Il suffit d’une simple licence installée au niveau de l'hyperviseur pour protéger toutes les machines virtuelles y étant hébergées, qu’elles soient sous Linux ou sous Windows.
➜ SL : Les solutions de virtualisation du stockage sont-elles assez mûres selon vous ?
• CG: La virtualisation du stockage existe depuis une dizaine d'années mais elle connaît un succès très récent. En fait, les entreprises ont acheté, au fil des ans, des volumes de stockage croissants, de marques différentes, avec des connexions distinctes, souvent mal exploités au niveau des unités logiques. Elles ont provisionné un espace disque de 100 Go à un serveur pour se rendre compte, quelques mois plus tard, que celui-ci est occupé à hauteur de 40%. Au niveau d’un centre de données de plusieurs racks, l'espace perdu est considérable. Le principe de la virtualisation du stockage consiste à fédérer plusieurs ressources de stockage hétérogènes indépendantes en une ressource centralisée dotée de fonctionnalités avancées (thin provisionning, cache haute performance, classes de stockage ou tiering), tout en conservant les copies instantanées (snapshots). La virtualisation du stockage présente aux serveurs un espace virtualisé, appelé vDisk (virtual Disk), englobant plusieurs ressources différentes. On centralise donc tout l'espace disque en un point administrable à l'aide d'un seul outil et on peut ainsi répliquer des données entre deux baies de marques et de technologies différentes. La virtualisation permet de réutiliser l'existant et d'acheter des baies basiques en termes de fonctionnalités.
➜ SL: Faut-il prendre de nouvelles précautions avec cette technologie?
• CG: Oui, car l'emplacement physique des données est répertorié par des métadonnées. Lorsqu'une requête est envoyée sur le vDisk, le stockage de virtualisation interroge les métadonnées pour savoir sur quelle ressource physique elles sont stockées. Les métadonnées sont donc essentielles. Elles doivent faire l'objet de toutes les attentions, notamment au niveau de la sauvegarde. L’administration des baies s'avère toujours nécessaire mais elle devient moins complexe. En effet, au niveau des baies, il suffit de créer des volumes, la réplication et le thin provisioning se configurant au niveau de la solution de virtualisation. On pense, à tort, que les performances seront inférieures à une baie physique. En fait, une solution de virtualisation s'installe sur un serveur bi-processeur multi-coeurs, doté de beaucoup de mémoire vive. Or, aucun constructeur n’embarque, au niveau de son contrôleur de stockage, plusieurs processeurs avec plusieurs dizaines de Go de mémoire vive. La virtualisation du stockage apporte finalement une certaine souplesse. Mais son administration ne doit pas être négligée car si un serveur consomme de façon excessive du stockage, il le fera au détriment d'autres serveurs et pourra entraîner un crash majeur. Des mécanismes de reprise et de bascule automatique, parfois optionnels, sont néanmoins prévus.