Parmi les grandes entreprises, plus d’une sur deux ont déployé l’an passé des serveurs et des baies de stockage compatibles avec la technologie Flash, vecteur de transformation du datacenter.
La Flash permet aux grandes entreprises de gérer davantage de charges applicatives et d’offrir une bouffée d’oxygène aux entrées-sorties. En effet, les workloads (VM, application et données comprises) sont de plus en plus nombreuses par serveur physique. Le marché mondial des baies Flash a atteint 11,3 milliards de dollars en 2014, selon une évaluation récente d’IDC. Le cabinet américain prévoit que 80 % des périphériques de stockage livrés cette année seront compatibles avec la technologie Flash, véritable vecteur de transformation du datacenter.
La démocratisation du stockage à base de disques SSD (Solid State Drive) se confirme. Ces disques électroniques retiennent des mémoires à semi-conducteurs à l’état statique, c’est-à-dire sans aucune pièce en mouvement. Il en résulte un délai de latence quasi-nul, une consommation d’énergie très faible et des performances inégalées. Ces grosses ‘clés USB’ s’installent dans une baie dédiée ou bien au plus près du bus PCI Express du serveur ; elles offrent alors un débit allant jusqu’à 32 Gb/s, trois fois supérieur à celui de l’interface réseau Ethernet 10 Gbps.
De telles caractéristiques forment une opportunité, pour les acteurs historiques du stockage en quête de relais de croissance. D’une part, ils peuvent préserver leurs parts de marché, face à une kyrielle de nouveaux entrants tels Nimble Storage, Pure Storage, Sandisk ou SolidFire. Et d’autre part, ils voient les fonctions haut de gamme descendre progressivement sur les baies destinées au marché des ETI (entreprises de taille intermédiaire). Les plus puissants comme Dell, EMC, Hitachi, HP, IBM ou NetApp y voient une vraie planche de salut. C’est que la Flash s’avère capable de réduire le coût au Gigaoctet stocké, notamment lorsqu’elle est associée à de bons algorithmes de déduplication et de compression de fichiers.
Selon Eric Burgener, directeur des recherches sur les systèmes de stockage chez IDC, “les fournisseurs qui rencontreront le plus de succès seront ceux qui parviendront à proposer une transition douce du modèle d’application dédiée, traditionnel, vers une consolidation mêlant toutes les charges applicatives.”
En effet, un même centre de données doit gérer plusieurs approches de stockage, en fonction des applications et de la qualité de services à délivrer aux divers groupes d’utilisateurs et clients. Or ces objectifs de niveaux de services sont maintenant pris en compte, progressivement, dans les solutions de stockage du milieu et du haut de gamme.
« De nouvelles architectures placent le stockage Cloud, évolutif sans interrompre la production, à la portée des entreprises. »
John Rollason, directeur marketing international de SolidFire
Moderniser l’infrastructure sans la compliquer
La performance des entrées-sorties devient plus cruciale à mesure qu’on déploie plusieurs dizaines de charges applicatives par serveur physique, confirme Yacine Kheddache, directeur technique de l’intégrateur Alyseo : “Il faut savoir borner les usages, gérer l’infrastructure de bout-en-bout, pour ne plus la subir. Il s’agit de garantir qu’une VM aura bien le nombre d’IOPS (entrées-sorties par seconde) nécessaire. C’est pourquoi nous préférons dissocier le stockage du calcul et ajouter des nœuds matériels distincts en fonction du type de VM et des choix applicatifs”. Les configurations recommandées aux hébergeurs par Alyseo, retiennent jusqu’à 256 Go de Ram par hyperviseur avec un stockage évolutif, composé de briques de quatre nœuds, distribué à grande échelle pour délivrer jusqu’à 3,6 Peta-octets de données. Cette approche flexible s’oppose à l’hyperconvergence des modèles Nutanix ou Simplivity qui convient mieux aux usages de petites VM similaires.
Ne pas investir plus que nécessaire
Toute la difficulté de la DSI revient à planifier ses capacités à venir, sans investir plus que nécessaire. L’équipementier SolidFire, retenu par Alyseo, y parvient via une gestion de la qualité des services de stockage intégrée aux environnements VMware, OpenStack et CloudStack. Exit la redondance de disques RAID : une répartition sur plusieurs serveurs la remplace désormais. La recopie automatique des données est organisée sur l’ensemble des nœuds de stockage pour parer à toute panne du matériel, ce qui ne dédouane pas de faire des sauvegardes pour autant. Les performances globales deviennent prédictives, la volumétrie en mode bloc étant associée à un “data store” ou à une VM. Bref, l’application critique de l’entreprise va exploiter toute la bande passante dont elle aura besoin tandis que les autres services se partageront le reste de bande passante disponible. Du côté des interfaces réseaux, le Gigabit Ethernet est supplanté massivement par le 10 GbE et les premières implémentations en 40 GbE apparaissent. “Le principal avantage consiste à simplifier l’exploitation, à mutualiser l’administration du stockage et du réseau, sans avoir à recourir à une équipe dédiée pour gérer un SAN Fibre Channel”, conclut-il.