- L'hyper-convergence veut fournir une agilité au Datacenter
- JK_portrait linkdn 2019
Dernière consolidation du datacenter, l'hyper-convergence se focalise sur l'hyperviseur. De nouveaux clusters virtualisés comptent offrir un rendement record à l'infrastructure via une administration unifiée.
Rares sont les technologies capables de chahuter les parts de marché des serveurs, commutateurs Ethernet, baies de stockage et logiciels d'administration à la fois. L'hyper-convergence est de cette trempe-là. Est-ce une migration inéluctable du datacenter ou bien un feu de paille éphémère ? Deux analystes, six experts et un client précoce nous aident à y voir plus clair.Les acheteurs informatiques connaissent bien l'approche PureFlex d'IBM développée depuis quatre ans. De même, ils ont pu étudier la stratégie Converged Infrastructure d'HP, les Vblock conçus par VMware-Cisco-EMC ou, plus récemment, l'Active System de Dell. Face à ces consolidations issues d'alliances, on note la percée de nouvelles start-ups : Nutanix, Pivot3, Scale Computing, Scality, Simplivity ou Tintry opèrent sur des segments adjacents pour relever le défi de l'hyper-consolidation. Avec un équipement tout-en-un, répliqué dans plusieurs salles ou datacenters et piloté de façon centralisée, ils apportent un provisionnement de ressources plus efficace et aussi automatisé que possible. L'hyper-convergence suit cette approche au niveau de l'hyperviseur pour délivrer de nouveaux services virtualisés, plus rapidement, vers tous les clients du système d'informations. Une formule adoptée en EuropePourquoi de nouvelles migrations dans les salles blanches ? La virtualisation galopante des ressources du datacenter, la percée des services SaaS et la volumétrie des données numériques gagnant 50% par an, provoquent une mutation croissante vers les clouds privés, publics ou hybrides ; ce dernier choix, d'externalisation partielle donc, est parfaitement assumé par le DSI de l'assureur français Thélem (lire dernière page de ce dossier). Actuellement, 18% des organisations Européennes adoptent l'infrastructure convergée et 20% envisagent sérieusement d'y passer ; en comparaison, elles sont respectivement 57% et 55% en Amérique du Nord, évalue une étude récente de l'américain Zenoss, menée auprès de 100 000 informaticiens dans le monde. S'il n'y a plus d'hésitation du tout outre-Atlantique, on note encore quelques réticences sur notre continent.Les pionniers de cette démarche, sans surprise, sont de grandes entreprises qui, trois fois sur quatre, constatent une amélioration des services fournis aux clients. Les structures de moins de mille salariés sont partagées : la moitié d'entre elles vérifient actuellement les apports de l'infrastructure convergée dans leur contexte. Quant aux entreprises de taille intermédiaire, elles semblent actuellement plus prudentes encore que les PME. «L'hyper-convergence est l'accélération des solutions tout-en-un pour répondre à la demande des clients qui souhaitent avoir un datacenter plus flexible au niveau de l'infrastructure. Cette recherche d'agilité rejoint une quête de rapidité d'exécution et de mises à jour», note Damian Saura, Vice-President Sales de MTI France SAS. Souvent, il s'agit d'améliorer la conformité, avec les métiers, la disponibilité des services, tout en offrant une reprise rapide d'activités en cas de sinistre. Mais l'ensemble doit rester simple à superviser et apte à réduire les coûts d'exploitation.Plusieurs classes de servicesLes appels d'offres auxquels les intégrateurs et constructeurs répondent dorénavant prennent en compte la consolidation des ressources dans les environnements virtualisés. «Au-delà des petites et grandes plateformes, une nouvelle classe apparaît, depuis fin 2012. C'est celle des solutions convergentes intégrant les quatre éléments de l'infrastructure et une console unifiée. L'hyper-convergence prend différents noms. C'est une solution intégrée conçue pour aller plus vite surtout», résume Laurent Vanel, responsable technique chez IBM. Selon lui, les premiers adeptes sont opérateurs de télécommunications, fournisseurs d'énergie et organismes du secteur public. Ils veulent simplifier le déploiement de nouvelles charges applicatives tout en réduisant les délais de latence du réseau. «L'administrateur et l'opérateur d'infrastructure doivent répondre plus vite aux besoins des métiers. Récemment, un industriel de l'aviation a déployé un portail pour ses utilisateurs en mode cloud privé. En quelques semaines, il a pu fournir plusieurs classes d'hyperviseurs, de stockage, de réseaux et de calcul. Cela lui fournit une autonomie nouvelle. Les utilisateurs peuvent faire des tests plus rapidement autour d'éléments auditables et facturables à l'usage», illustre-t-il. La période actuelle serait comparable aux premières années de la décennie 2000, aux débuts du pare-feu UTM. Ce boîtier tout-en-un a démocratisé la sécurité des réseaux ; grâce à lui, les PME clientes ont pu gérer et distribuer leurs propres règles de sécurité, de façon plus simple. Alain Takahashi, directeur général d'Hermitage Solutions, le distributeur de Scale Computing, nuance toutefois : «Nos clients n'expriment pas de besoin d'hyper-convergence en tant que tel. Ils rencontrent de plus en plus de problèmes budgétaires les empêchant d'acquérir une ferme classique de serveurs.»Un choix du comité de directionL'éclosion de ce marché aurait donc des raisons principalement économiques. «L'hyper-consolidation est subie par les directions informatiques et par le middle-management. En revanche, elle est voulue et poussée par le top management car des économies de coûts sont devenues nécessaires au niveau de la place occupée, de la consommation électrique et de la dissipation d'énergie dans le datacenter», explique Florent Embarek, Country Manager France & Afrique du Nord d'A10 Networks.Les réseaux, hier statiques, deviennent de plus en plus dynamiques. L'approche SDN (Software Defined Network) répond au même objectif de reconfiguration rapide du réseau, voire de contrôle de l'infrastructure par l'applicatif. Une véritable quête du Graal pour l'exploitation, cette recherche n'ayant jamais complètement abouti. En effet, la notion d'orchestration globale implique des interactions entre équipements de couches distinctes, peu habitués à dialoguer ensemble. L'hyper-convergence donne naissance à de nouveaux boîtiers regroupant plusieurs dispositifs qui étaient séparés jusqu'ici.«La virtualisation prend au niveau du réseau. L'hyper-convergence va permettre de rejoindre un schéma directeur d'entreprise, via un boîtier 1U couvrant les couches 4 à 7 dans notre cas, simple à exploiter et capable de gérer 32, 64, 128, voire un millier d'instances virtuelles», prévoit-il. Lorsque les VM se multiplient, l'intégrateur MTI recommande une infrastructure mixte, cloud privé et public, en fonction des applications, le nuage public hébergeant des solutions temporaires non critiques ou sécurisant des environnements hors périmètre du datacenter. Il songe à muscler ses offres tout-en-un pour mieux répondre aux attentes des métiers : «Les solutions évolutives intégrant des machines virtuelles deviennent une tendance inéluctable. Encore faut-il que les applications métiers soient bien intégrées», précise Damian Saura. Gérer des milliers de VML'administration unifiée d'environnements virtualisés peut améliorer le rendement des équipements du datacenter. L'hyper-convergence influence toutefois l'organisation des équipes informatiques. Elle exige des opérateurs polyvalents pour l'administration quotidienne. En contrepartie, cela réduit les contraintes au niveau des congés et des heures d'astreintes et l'entreprise n'aura recours qu'exceptionnellement aux experts.Pourtant, Laurent Vanel prévoit que «les approches traditionnelles et l'hyper-convergence continueront de progresser en parallèle, avec des demandes de plus en plus fortes pour l'hyper-convergence». La densification des VM provient de leur simplicité de création sous les derniers environnements systèmes des serveurs. Mais, cette tendance peut conduire à une perte de contrôle. «C'est là qu'intervient la pertinence d'un point de contrôle central où les opérations visent dorénavant à garantir des niveaux de services, en pilotant la performance des disques et des réseaux associés aux VM», souligne-t-il. En résumé, le portail moderne doit faciliter la gestion et la facturation de la performance globale des services délivrés, via un tiering applicatif, au travers d'une supervision en temps réel des ressources et grâce à une connaissance fine des coûts associés à chaque sous-ensemble. «La plateforme convergente de demain accélèrera la mise à disposition de nouveaux services, grâce à une convergence voulue dès le départ», conclut-il. ENCADRÉSUn changement rapide du marché des commutateursLe marché des commutateurs Ethernet dépasse les 20 milliards de dollars mais il subit des turbulences. Les parts de marché basculent avec l'évolution des demandes. Les modèles pour datacenters gagnent du terrain au détriment de ceux destinés aux PME et aux entreprises de taille intermédiaire. Les acheteurs privilégient des produits uniques, conçus dans un but précis, observe le cabinet Dell'Oro Group. Ces nouveaux modèles sont optimisés en fonction du lieu de leur déploiement. Dans le datacenter, on privilégie les interfaces 10 Gigabit Ethernet pour rallier les serveurs. «Les projets de consolidation de datacenter et l'essor des services Cloud dopent les ventes de commutateurs destinés aux centres de données, à tel point que leurs fournisseurs vont passer devant les équipementiers ciblant d'autres segments de marché», compare Alan Weckel, Vice-Président du cabinet Dell'Oro Group. On distingue quatre déploiements principaux : dans le datacenter, dans l'entreprise (au siège ou en agence), en PME et chez l'opérateur de services Ethernet. En 2012, Cisco, Dell, D-Link, Hewlett-Packard, Huawei, IBM, Juniper et Netgear accaparent les premiers rangs de ces segments. Les PME devraient investir dans le sans-fil Ethernet 802.11ac, provoquant une stagnation puis une régression progressive des ventes d'équipements filaires.