- Provisionner des ressources sécurisées à moindre coût
- logo_ebrc_2012-3
- logo_ebrc_2012-3
Infrastructures multi-cloud, programmables, déploiements automatisés… Quelle stratégie adopter pour contrôler les charges applicatives et leurs données à moindre coût ?
« Le rêve d’une stratégie 100% Cloud s’achève car ce n’est pas la panacée. Les grandes entreprises prévoient d’utiliser plusieurs Clouds privés et publics. Leur IT évolue vers une intégration d’infrastructures sur site, d’IaaS, de plateformes PaaS et de logiciels SaaS », constate Jérôme Lecat, le PDG de Scality, expert du stockage piloté par logiciel (SDS). Logiquement, les grands fournisseurs cherchent à simplifier l’administration de cette informatique de production, devenue hybride. Mais une infrastructure IT n’est pas aussi intuitive ni réactive qu’un smartphone. « Tout se construit par rapport à l’expérience utilisateur et non plus selon les ressources à mettre en place », confirme Jules-Henri Gavetti, le PDG de l’hébergeur Ikoula. Afin d’améliorer les performances ressenties par l’utilisateur, il recommande de réduire le délai de chargement des pages web et de limiter les échanges entre front-office et back-office. « Nos clients veulent des débits garantis et un serveur physique regroupant dans une même unité les calculs, le stockage et la mémoire. La location mensuelle de serveurs dédiés ‘bare metal’ ne s’est jamais aussi bien portée », confie-t-il.
Des projets qui ralentissent
« Les nuages mondiaux d’Amazon Web Services et de Microsoft ne sont pas bon marché. Plusieurs projets ralentissent, une fois les factures découvertes, avec un retour aux plateformes dédiées », note Philippe de Lussy, fondateur et PDG d’e-Qual. Ce prestataire de services managés optimise l’expérience utilisateur via son propre datacenter à Poitiers et au travers d’une supervision de réseaux hybrides incluant le récent SD-WAN administré Mandala.
Si les présentations d’IA au service du pilotage du datacenter se multiplient, elles restent souvent futuristes. Plus près des préoccupations quotidiennes des exploitants, les commandes en ligne sont maintenant secondées par des interfaces Web ergonomiques, prêtes à dérouler des scripts avancés. On en trouve dans toutes les piles d’infrastructures modernes et dans le Ring v7, la solution SDS de Scality conçue pour les utilisateurs de données non structurées à partir de 100 To.
Performances, fiabilité et économies
Performances, fiabilité et coûts réduits sont les critères recherchés pour gérer de grosses sauvegardes multi-sites ou distribuer de volumineux fichiers à grande échelle. Les clients de Scality sont opérateurs (Orange, SFR), diffuseurs de contenus audiovisuels (Daily Motion, TF1, Eurosport), banquiers ou éditeurs de logiciels. Mais la plus forte croissance enregistrée par l’éditeur concerne les hôpitaux avec l’imagerie médicale et la rétention des dossiers patients. Pour contrôler l’emplacement des données réparties sur plusieurs infrastructures, Zenko, le logiciel open source de Scality, fédère une communauté croissante, composée déjà d’un millier d’utilisateurs-contributeurs. Les services d’intégration à l’annuaire d’entreprise ou encore le chiffrement de données forment autant d’opportunités pour l’écosystème.
Les entreprises veulent s’affranchir de leurs contraintes matérielles. Avec la virtualisation, elles consolident des ressources de stockage, des serveurs, voire des infrastructures complètes en fonction d’exigences métiers confiées dorénavant à une plateforme logicielle.
Automatisation sous contraintes
« La densité des serveurs augmente et la virtualisation y contribue. La puissance de calcul est concentrée sur un espace restreint. L’infrastructure as code (Ndlr: programmable) répond surtout aux besoins d’agilité qui surgissent partout », note Mourad Ben Hamouda, le directeur technique d’ITS Group. Pour lui, on devrait parler de services d’infrastructures car le terme infrastructure seul reste connoté aux équipements matériels. L’infrastructure as code (IaC) introduit des notions de programmation collaborative : « On souhaite automatiser des processus IT et fournir des services qui étaient réalisés jusque-là par des compétences techniques rares et chères en cas d’astreinte. »
Les exploitants doivent s’organiser pour assurer une disponibilité continue et des services performants, là où les salariés et les clients veulent interagir. Mais, « en cas de délai de latence sur une application Cloud, le point de congestion peut être partout. L’infrastructure est si large et il y a tellement d’interactions qu’on ne sait plus qui fait quoi », souligne Jules-Henri Gavetti avant de recommander des infrastructures étanches, séparées les unes des autres. Les réseaux étendus profitent aussi d’automatismes pour se reconfigurer plus fréquemment. « Le saut technologique est arrivé avec la séparation des niveaux de contrôle et des données. La façon dont on transporte n’est plus liée au transport lui-même », explique Philippe de Lussy, précurseur du réseau SD/WAN managé. Pour lui, gérer les performances applicatives exige de comprendre les exigences de chaque application et surtout : « on ne peut pas ignorer le métier ni les priorités du client, qu’il conçoive des produits ou les fabrique dans une usine juste à temps. »
Plusieurs modèles de déploiement continu
Adaptation dynamique, robustesse et efficacité deviennent les principaux critères de l’infrastructure. L’éditeur CA Technologies, racheté cet été par Broadcom (19 milliards de dollars), préconise une méta-orchestration qu’il compare déjà à une adaptation continue aux usages fluctuants des charges applicatives. Pour sa part, Cisco suggère “l’intent-based networking”, un pilotage des trafics par les intentions métiers, également fondé sur des mécanismes d’automatisation. Chaque approche innovante cherche à rendre plus autonomes les équipes d’exploitation, mais ces technologies imposent une nouvelle coordination avec la supervision voire de nouvelles métriques de performances. « Le besoin d’automatisation se ressent en tout point du système d’information. En exploitant une même plateforme d’automatisation, on s’assure que l’utilisation sera identique partout », prône Yann Guernion, directeur marketing produit de CA. L’offre CA Automic One Automation s’adresse aux équipes DevOps chargées de déployer fréquemment de nouvelles versions de logiciels et plusieurs infrastructures en soutien des applications. Parmi les configurations actuelles, on trouve des serveurs physiques, des machines virtuelles et des grappes de conteneurs.
« Le déploiement continu devient aussi une réussite lorsqu’on généralise les mêmes méthodes et processus. La notion de modèles de déploiement réduit les conflits entre développeurs et responsables de production au niveau de l’approvisionnement des ressources nécessaires », assure-t-il.
Outre des applications soumises aux tests de configuration avant de passer en production, puis des performances examinées lors de l’exécution, CA suggère de suivre l’approvisionnement des données en parallèle. « Il s’agit de détecter les évolutions pour faire évoluer l’intelligence des déploiements », pointe Yann Guernion. Selon lui, la plateforme d’automatisation partage de bonnes pratiques de déploiement et elle délivrera bientôt des conseils d’architecture. Les clients de CA peuvent évaluer leur niveau de services déployés vis-à-vis de celui de leur industrie, l’éditeur croisant les informations recueillies de façon anonyme.
Réduction des coûts à la clé
Comment provisionner les ressources à moindre coût ? « On peut y aller crescendo. En général, nous conseillons de démarrer par une offre IaaS, avant de passer à une plateforme PaaS, puis de s’orienter vers l’IaC modulable. Cela demande un investissement initial mais les comparatifs de nos clients sont encourageants sur la réduction du coût », retrace Mourad Ben Hamouda.
Le Cloud privé garantit aux données critiques des protections maîtrisées en interne, là où le Cloud public fournit une couverture mondiale. L’approvisionnement de ressources peut être à la fois plus rapide et mieux sécurisé avec l’IaC qui réduit le nombre d’erreurs humaines et accompagne la montée en charge et l’évolution des services métiers.
« Dans une infrastructure traditionnelle, l’ajout de mémoire Ram, de stockage ou d’entrées-sorties reste tributaire des procédures d’achats. Avec l’IaC, on peut étendre les infrastructures en fonction des besoins, apporter une meilleure gestion des capacités et dé-commissionner les services qui ne sont plus nécessaires », compare-t-il.
D’autres bénéfices apparaissent progressivement dont de nouveaux déploiements plus fréquents et, en cas d’incident, une reprise des activités plus rapide. « La disponibilité et les performances s’améliorent autour de configurations plus robustes qui suivent l’architecture technique de référence de l’entreprise et ses propres standards. On est alerté en cas de défaillance d’équipements et certaines solutions recréent automatiquement des nœuds pour étendre une application ou pour la déplacer. Le principe d’autoréparation est en train d’arriver », prévoit-il.
Contrôler l’emplacement des données
avec Zenko de Scality
« Lorsqu’on a beaucoup de données réparties partout, il faut pouvoir les retrouver. Pour y parvenir, il faut les étiqueter avec soin, offrir une recherche à partir de metadonnées, en multi-Cloud privé comme public. C’est ce que propose le moteur de recherche inclus dans Zenko, un middleware que nous développons en open source (Ndlr: sous licence Apache) pour les besoins professionnels à partir de quelques centaines de Giga-octets », précise Jérôme Lecat, le PDG de Scality. Le logiciel libre aide à maîtriser l’emplacement des données non structurées sur plusieurs types de stockage distribués, via l’API S3 d’AWS.
Les cas d’usage couvrent le choix d’un Cloud pour la sauvegarde, le stockage d’images médicales, de scènes de vidéo-surveillance ou encore la consolidation de données issues d’objets connectés. « Certains revendeurs et prestataires Cloud offrent à leurs clients la possibilité d’héberger des données sur leur propre infrastructure et aussi dans le Cloud public. Zenko, orchestré par Kubernetes, leur permet d’administrer ça », précise-t-il.
Outscale ajuste l’infrastructure au travers d’API
« Le principe de l’infrastructure as code consiste à avoir sa propre application qui va déployer l’infrastructure dont elle a besoin. Un ensemble d’automatismes permet de rendre la meilleure expérience utilisateur tandis que des éléments de métrologie contribuent à ajuster les ressources de calcul et les mémoires nécessaires », résume David Chassan, CCO d’Outscale. Les offres du prestataire français se situent au niveau de l’IaaS surtout. La filiale de Dassault Systèmes loue des machines virtuelles et du stockage externalisé. La grande distribution apprécie sa plateforme Big Data agile facturée à l’heure et fondée sur Mapper. Pour bâtir un Cloud privé, l’offre TinaOS s’appuie sur le FlexPod Cisco/NetApp livré clé en main en quelques semaines. Pour un Cloud hybride, il suffit de louer son équivalent sur le nuage public d’Outscale. Grâce aux API compatibles AWS (EC2 et S3), on peut utiliser le même code pour rallier deux fournisseurs.