Un nombre croissant d'activités dépendent de ressources placées dans le centre de données. Dès lors, la maîtrise des services délivrés, les outils et procédures d'administration et d'automatisation s'avèrent primordiaux.
Personne ne souhaite perdre le contrôle de ses données ou de ses traitements. Pourtant, avec l'externalisation d'un nombre croissant de services, la conduite des opérations peut échapper à l'équipe informatique, quand bien même le contrat de services impose de lourdes pénalités au prestataire défaillant. Mesurer la qualité de services délivrée et l'améliorer grâce aux outils et procédures d'administration de l'infrastructure n'est plus une option mais bien une nécessité.
Contrôlerles technologies en place permet de se protéger aussi contre soi-même. En effet, les dysfonctionnements informatiques proviennent en majorité de mauvaises configurations ou d'interventions maladroites. «L'erreur humaine est à l'origine de sept coupures d'alimentation sur dix dans le datacenter. Souvent, une clé tombe au mauvais endroit ou un mauvais débranchement est effectué. L'automatisation des tâches contribue à réduire ces risques», confirme Damien Giroud, le Directeur des Solutions Datacenter de Schneider Electric. Les procédures ITIL facilitent le suivi des changements et des incidents. Elles permettent d'anticiper l'évolution des équipements actifs. Mais ces bonnes pratiques ont besoin d'outils pour remonter, traiter les alarmes ou encore optimiser l'infrastructure IT, la climatisation ou les alimentations des baies.
Malgré la kyrielle d'outils de management en place pour surveiller et suivre l'infrastructure – la configuration et les performances des réseaux, serveurs, stockage et applications – aucun programme ne facilite vraiment le dialogue entre les administrateurs. Or, cette communication entre exploitants internes et externes devient primordiale. Il faut délivrer davantage de services dans des délais toujours plus courts ; cela reste une des premières motivations pour externaliser. Superviser son datacenter forme donc une opportunité de reprendre le contrôle sur ses données et traitements critiques.
Les dernières solutions d'administration du datacenter en prennent toute la mesure et proposent de véritables workflows autour des procédures ITIL de gestion des changements et des incidents. L'automatisation de certaines tâches, pour sa part, contribue à délivrer des services continus et des bascules plus fiables dans les environnements physiques et virtuels d'aujourd'hui.
Une gouvernance d'infrastructures mixtes
Les accords technologiques entre éditeurs de l'infrastructure s'imposent avec la percée du cloud hybride. Plus que jamais, l'entreprise cherche à explorer de nouveaux horizons au croisement des ressources cloud, des terminaux mobiles et des applications d'analyse de données. Cette tendance est confirmée par John Madden, IT Services Practice Leader chez Ovum : «L'adoption du cloud computing s'accélère chez nos clients ; le modèle de déploiement dominant reste le cloud privé ou privé virtuel, mais les modèles d'administration de clouds publics et de clouds hybrides augmentent dorénavant.»
Pour l'entreprise utilisatrice, le déploiement de services cloud devient un facteur de sélection des prestataires : «Pour se différencier, les prestataires informatiques doivent démontrer leur faculté d'innovation. Ils doivent aussi prouver leur capacité à délivrer des gains économiques et métiers, en exploitant le cloud. Ils cherchent donc à coopérer avec leurs clients pour améliorer la sécurité du cloud et former de nouvelles procédures de gouvernance et de conformité.»
La transformation cloud se caractérise aussi par de nouvelles relations entre les professionnels de l'entreprise et les prestataires informatiques internes et externes. Les responsables opérationnels métiers testent l'efficacité des solutions SaaS, tandis que la DSI cherche, pour sa part, à réduire le nombre de ses fournisseurs technologiques. On doit s'attendre, logiquement, à un nombre croissant d'acquisitions, de partenariats et d'alliances sur le marché IT. D'ailleurs, certains prestataires anticipent déjà le pic d'externalisation autour des infrastructures cloud : ils acquièrent davantage de capacités et de datacenters tandis que d'autres font l'acquisition de startups ou d'éditeurs de niche pour délivrer une administration fine d'environnements clouds hybrides, et apporter davantage de valeur aux clients.
«Les prestataires doivent améliorer la qualité et l'efficacité avec laquelle leurs clients peuvent suivre leur infrastructure. Ils doivent trouver des façons de réduire le fardeau de la gestion des patches et des sauvegardes en particulier», recommande l'analyste.
Les compétiteurs du marché des infrastructures loués en tant que service (IaaS) doivent donc fournir des solutions multi-locataires de suivi des services exploités au niveau de leurs datacenters. On trouve de tels outils, hier encore cantonnés au parc d'une entreprise, dans les gammes d'acteurs généralistes comme Bull, CA, HP ou IBM et chez certains spécialistes comme BMC Software, EMC et VMware.
Qualifierles charges applicatives
La compétition actuelle s'exerce surtout au niveau des automatismes. Ils sont permis par des scripts d'administration réutilisables, par corrélation et analyse d'événements, voire par des algorithmes d'aide à la résolution d'incidents. La mise à niveau des couches systèmes et l'optimisation des échanges, à l'échelle du datacenter, font également l'objet de modules spécialisés. L'approche DevOps se concrétise également par de nouveaux automatismes d'exploitation conçus dès le développement des applications métiers. Elle encourage une reconfiguration dynamique de l'infrastructure en intégrant les seules ressources réellement nécessaires aux traitements de l'entreprise.
L'éditeurfrançais Hedera Technology s'inscrit dans cette tendance en proposant un déploiement automatisé d'une pile OpenStack complète, pour tester et qualifier de nouvelles charges applicatives. Durant une semaine, l'entreprise peut ainsi vérifier le comportement de ses services sous une infrastructure IaaS externe, configurée en dix minutes par simples glissements de souris. Le portail PimpMyStack' devient la porte d'entrée d'équipes de développement d'entreprises qui n'ont plus à investir dans les serveurs en grappe, baies de stockage ou commutateurs réseaux ; inutile de faire appel aux administrateurs internes souvent accaparés par l'exploitation des plates-formes de production. Plusieurs types d'architectures sont proposés, dont une réplication de l'architecture en place dans l'entreprise, un modèle à haute disponibilité tout-en-un ou un modèle distribué. Techniquement, le portail repose sur l'outil de gestion cloud Kanopya développé par Hedera Technology depuis deux ans. De l'hyperviseur à la configuration des grappes de serveurs prêts à l'emploi, tout est automatisé.
Un vaste puzzle à assembler
En priorité, l'hébergeur de services cloud s'attache à offrir à ses clients une seule interface de gestion pour son cloud privé, quelles que soient les ressources sous-jacentes. Il lui revient donc d'assembler les bonnes briques de gestion des ressources pour y parvenir.
«L'industrialisationest la pièce maîtresse de l'exercice. Elle passe par une bonne intégration des divers systèmes ; le datacenter reste un monde hétérogène avec plusieurs infrastructures physiques et virtuelles par types de clients et avec des équipements hérités du passé», observe Arnaud Tayac, responsable de l'offre managed hosting d'Easynet.
La gestion de cet ensemble de ressources disparates fait appel à plusieurs outils d'orchestration et de supervision. Ces solutions demeurent toutefois partielles ; elles sont d'ailleurs remises en cause régulièrement : «On peut gérer les machines virtuelles et les clouds publics avec les dernières offres du marché mais, bien souvent, elles négligent une partie de l'infrastructure, le stockage, la sécurité ou le réseau». En cours de fusion avec le prestataire anglais NDNX, Easynet s'est attelé à l'homogénéisation globale de ses outils de gestion des datacenters. En France, l'administration de l'environnement virtualisé s'appuie sur les logiciels de VMware vCloud Director et vCenter Orchestrator ainsi que sur plusieurs développements menés en interne.
L'évolutiondu premier trimestre 2014 passe par l'UCS Director de Cisco, «bien placé pour gérer les briques basses de l'infrastructure, des serveurs UCS de Cisco ou d'origine HP. Au niveau du réseau de stockage, les équipements retenus proviennent d'EMC et de Cisco et s'intègrent très bien. Une fois l'outil d'administration installé et connecté à l'infrastructure, en une journée, on est capable de créer des workflows et d'exploiter de façon plus simple», témoigne-t-il.
Pour l'hébergeur, l'outillage nécessaire part des tests et de la surveillance de l'infrastructure pour mener jusqu'à la facturation des ressources à la demande. C'est la raison pour laquelle il regroupe plusieurs consoles dépassant le simple contrôle de l'infrastructure convergente : vCloud Director de VMware délivre aux clients des portions d'infrastructures IaaS, sous la forme de clouds privés cloisonnés. L'orchestrateur cloud de Flexiant et la plateforme d'Abiquo contribuent pour leur part à gérer les clouds hybrides et les accès aux ressources mutualisées, du point de vue de leur consommation et des contrôles de sécurité en particulier.
Toute la valeur du prestataire de service consiste à intégrer les bons outils du système d'information du datacenter. Ces outils doivent fonctionner, ensemble, de façon efficace : «Nous ne sommes pas encore dans un monde où un seul produit fait tout à la fois», estime Arnaud Tayac.
Le prestataire cloud doit rationaliser ses choix pour rester agile, contenir ses coûts et offrir la qualité de services attendue par ses clients. Ni intégrateur ni fournisseur de logiciels, Easynet élabore pas à pas sa propre solution d'administration. Il s'escrime à apporter la maîtrise des technologies mise à la disposition de ses clients : «On tente de garder des briques mutualisées dans la gestion, y compris en environnement privé, au niveau du réseau du datacenter, des segments LAN et SAN et des réseaux convergés», résume-t-il.
Une industrialisation indispensable pour le cloud
Le cloud computing accélère la mise en production de nouveaux services applicatifs. Encore faut-il pouvoir les surveiller. «Dans nos infrastructures IaaS, c'est l'utilisateur qui conserve le contrôle, garantit Eric Sansonny, le Directeur Général d'Aruba en France. Les niveaux de sécurité sont établis en fonction des objectifs et des contraintes de chaque client. Tout dépend de la finalité du logiciel, en définitive : un programme web spécifique, une application Big Data ou un programme de rendu 3D dans le cloud n'ont pas les mêmes exigences».
L'hébergeurvolumique bénéficie de deux centres de données à proximité d'Arezzo, en Italie. Sur l'Hexagone, l'offre de serveurs dédiés provient des demandes d'infogérance et repose sur le datacenter d'Equinix au nord de Paris.
L'infogérancereste une discipline où intervient l'humain et où le client et son prestataire doivent pouvoir compter l'un et l'autre sur des processus d'administration éprouvés : «Sans industrialisation, le cloud computing ne peut pas marcher. Ordonnancement et provisioning des ressources font partie de la chaîne à industrialiser», souligne-t-il.
Grâce à cette maîtrise, Aruba a pu lancer plusieurs offres d'hébergement avancées en un an : stockage objets, load balancing, cloud public, puis cloud privé avec infogérance, entre autres. Le prestataire italien fournit un éventail de services et d'outils à ses clients afin qu'ils pilotent eux-mêmes leur infrastructure IaaS.
Parmi ces innovations, une application mobile facilite la copie instantanée de VM depuis un smartphone ; elle permet aussi d'arrêter et de relancer une plateforme en urgence. Les API publiées par Aruba facilitent l'intégration des ressources cloud avec le système d'information de l'entreprise. L'hébergeur cible des organisations, de taille moyenne à grande, voulant bâtir des nuages privés. Ses clients exigent parfois de répartir leurs charges applicatives sur plusieurs VM et sur plusieurs datacenters, avec des performances semblables par pays. Il faut alors être en mesure de maintenir des temps de réponse non seulement sur l'infrastructure, mais aussi sur les applicatifs métiers, quel que soit le système d'exploitation et l'hyperviseur. Aruba compte équilibrer ses ventes directes et indirectes (elles pesaient 30% de ses recettes en France, fin 2013) grâce à une offre de services managés disponibles sous sa marque ou en marque blanche, pour le compte d'éditeurs, VARs, SSII et intégrateurs.
La maturité du marché cloud national devrait survenir avec la baisse des prix qui encourage la conversion d'hébergements web en offres cloud. Autre signe positif, selon Eric Sansonny, l'accélération des demandes se confirme au niveau DaaS (desktop as a service): «Le poste de travail devient virtuel. Ce pourrait bien être le vecteur de croissance du cloud en France cette année. On en parle beaucoup dans les organismes de formation notamment.»
Aruba propose une infogérance sur serveur dédié, en mode cloud où le client peut externaliser une part croissante de son système d'informations. «Comme le ferait un consultant externe, nous aidons ponctuellement nos clients à mettre en place un laboratoire de tests applicatifs. Nous apportons un conseil en création d'architecture, lors de la mise en œuvre puis de la configuration des serveurs. Ensuite, le contrôle est laissé au client. En coulisse, nous disposons d'une plateforme facilitant les bascules de VM que l'on renforce pour faire de la très haute disponibilité avec un monitoring très poussé», résume-t-il.
Contenirles coûts d'exploitation
Dans le cloud computing, plusieurs infrastructures, plateformes et types de services sont consommés par les clients qui ne possèdent plus les matériels ni les licences de logiciels. Ils doivent donc se concentrer dorénavant sur leur capacité à contrôler les engagements de services (ou SLA) de leurs prestataires, des éditeurs de solutions SaaS ou encore des hébergeurs d'infrastructure et de plateformes de développement : «Dans un contexte d'infogérance ou de cloud privé, les outils d'administration du cloud s'avèrent essentiels. Ils entrent parmi les critères de choix du prestataire, mais ne sont pas éliminatoires», nuance Yazid Timizar, architecte cloud d'HP France. L'infogérant prend soin des serveurs et propose un catalogue de services. En cas de besoin, il gère la commande de serveurs supplémentaires ou bien il exécute une nouvelle demande de travaux avec un coût unitaire. Les outils d'automatisation contribuent à réduire ses propres coûts. Comme tout prestataire qui construit et fait évoluer un datacenter, il gagne donc à se préoccuper de la suite d'administration, d'automatisation et d'orchestration pour faire abstraction des équipements de l'infrastructure. «Avec Tosca, nous aidons à modéliser les applications 3-tiers pour en profiter sur une infrastructure cloud, dans un datacenter public», poursuit-il avant de comparer ces efforts de convergence et de mise en conformité des services à ce qui a été fait jusqu'ici, au niveau de l'infrastructure cloud ouverte OpenStack.
Par où commencer la modernisation du système d'information du datacenter ? «Une première piste est l'automatisation des tâches d'exploitation, des migrations entre environnements physiques et virtuels, des tests d'objets réseaux, des configurations de commutateurs, des règles de firewalls A côté de cela, il y a l'automatisation des OS : leur installation, la vérification de conformité, la mise à jour du middleware. On peut pousser jusqu'au firmware des serveurs, à celui du stockage et de tous les équipements actifs du datacenter», expose-t-il.
Il existe une autre approche qui consiste à assembler des services pré-configurés, puis à les regrouper autour d'un catalogue de services. «Le cloud computing change marginalement la mesure de la qualité de services et la supervision des services rendus. En revanche, on doit associer au catalogue de services un niveau d'engagement de service. Les méthodes de supervision ne changent pas. Seule la compartimentation change avec le catalogue de services. On va revenir vers l'utilisateur final au niveau IaaS, PaaS et SaaS. Il s'agit d'apporter une visibilité à l'utilisateur final qui tient à savoir s'il en a bien pour son argent, en commandant ses VM chez tel ou tel prestataire», conclut-il.
L'automatisationpermet des économies d'énergie
Le pilotage de l'infrastructure énergétique apporte de l'efficacité au datacenter. «Nos logiciels regroupés sous l'offre Struxure for Datacenters réconcilient les technologies de l'énergie, du refroidissement et de l'IT, explique Damien Giroud, le directeur France des Solutions Datacenter de Schneider Electric. Ils mesurent la charge réelle des serveurs et vérifient la bonne intégration des équipements dans l'infrastructure énergétique. Suite à un incident potentiel sur l'infrastructure d'énergie, nous savons identifier et visualiser toutes les baies, serveurs et machines virtuelles impactés». Grâce aux co-développements menés avec Microsoft et VMware, Schneider Electric facilite la continuité de services IT, via un transfert de machines virtuelles vers les endroits sécurisés du datacenter. En outre, la régulation automatique des groupes d'eau glacée redondants – nécessaires à la climatisation – permet de refroidir les baies à moindre coût : «Le groupe froid ajuste son régime d'eau glacée en fonction de la charge, ce qui est impossible à faire manuellement et permet des économies d'énergie», explique-t-il.
Une nette percée du cloud attendue cette année
Les entreprises françaises s'intéressent enfin au cloud mais elles y consacreront une somme inférieure à 7% de leur budget IT cette année, estime IDC. Le marché du cloud hexagonal devrait croître néanmoins de 36%, pour atteindre 3,5 milliards d'euros en 2014. Déjà 63% des grands comptes ont eu recours au cloud en 2013 contre 55% un an plus tôt. Mieux, une grande entreprise sur trois reconnaît faire une utilisation intensive du cloud à présent. Les craintes s'estompent progressivement puisque 73% des DSI reconnaissent évaluer les opportunités du cloud fin 2013, contre à peine plus d'un DSI sur deux un an auparavant. Le cabinet IDC souligne l'importance du catalogue de services, des solutions de supervision et d'automatisation, d'autant que le cloud privé mène la danse pour 53% des responsables IT, 21% se tournant vers le cloud public et seulement 10% vers le cloud hybride.