Les infrastructures IT des entreprises sont de plus en plus hétérogènes, de plus en plus dynamiques. Pour en garder le contrôle, les DSI doivent faire évoluer leurs outils de gestion des infrastructures et notamment renforcer leur visibilité sur ces architectures modernes.
Dans la récente étude “The State of Observability 2021” de VMware Tanzu, 84 % des équipes informatiques déclarent devoir gérer des centaines voire des milliers d’instances mais aussi des conteneurs logiciels et des clusters Kubernetes pour 72 % d’entres-eux et des microservices pour 49 %. Plus de 8 entreprises sur 10 doivent gérer plus de 100 conteneurs et dans les entreprises qui comptent plus de 250 développeurs, ce nombre dépasse 1 000 conteneurs pour 78 % d’entre elles. Face à cette inflation technologique, 32 % des responsables informatiques interrogés déclaraient disposer ou être en train de déployer une solution d’observabilité pour retrouver un peu plus de vision sur ces infrastructures multicloud.
Des agents au modèle API
Tous les acteurs de l’APM (Application Performance Management), de l’ITOM (IT Operations Management) et de l’ITSM (Information Technology Service Management) se sont positionnés sur le marché des infrastructures multicloud. L’approche classique à base d’agents logiciels reste bien évidemment pertinente pour les composants logiciels qui continuent à tourner sur les infrastructures on-premise de type “legacy” ou sur des instances qui ont une certaine persistance, mais pour gérer les workloads portées par les fournisseurs Cloud, le plus efficient reste de passer par les API ouvertes par ces derniers. Matthieu de Montvallon, directeur de l’activité Solution consulting de ServiceNow, explique cette évolution : « Se connecter aux API des fournisseurs Cloud permet de connaître l’ensemble des composants provisionnés par l’entreprise sur l’infrastructure Cloud, c’est le Discovery et le Service Mapping, ce que l’on sait faire sur une infrastructure on-premise avec nos propres outils. Le moyen d’acquérir la donnée est différent, mais la finalité reste la même : nourrir notre CMDB/CSDM via le graphe de données retourné par chaque fournisseur Cloud. »
Parmi les nombreux éditeurs à s’être positionnés sur ce marché de l’observabilité Cloud, on peut citer Splunk, un éditeur dont la plateforme à une vocation plus généraliste mais qui a fait de l’observabilité son cheval de bataille. Il y a quelques semaines, celui-ci dévoilait une offre spécialement affutée pour ce marché, Observability Cloud, une suite qui regroupe toutes ses solutions de monitoring des infrastructures, de gestion des performances des applications (APM), de monitoring des utilisateurs en temps réel, de monitoring synthétique, d’investigation des logs et de réponse aux incidents. Stéphane Estevez, directeur Marketing Produit de Splunk EMEA, explique la démarche de l’éditeur : « Splunk a étendu ses capacités en partant du monitoring pour aller vers l’observabilité, et aller véritablement vers l’APM, en particulier sur les environnements Cloud. Nous avons racheté SignalFX qui est maintenant intégré à notre portefeuille de solutions, nous avons aussi racheté Omnition, un contributeur du projet OpenTelemetry qui est devenu, de facto, le standard de la surveillance des environnements Cloud. »
L’observabilité multicloud est un terrain particulièrement propice aux éditeurs de solutions Big Data. Sur ces environnements très distribués où il y a énormément d’artéfacts et des composants qui se lancent et qui s’arrêtent en permanence. Le Big Data est une bonne base technologique pour traiter ces volumes de données, monitoring et observabilité mais aussi faire tourner des algorithmes d’IA pour faire face à ces volumes de données et au manque d’ingénieurs Ops alors que les nouvelles générations préfèrent devenir développeurs. Autre acteur du Big Data à se lancer dans la bataille de l’observabilité New Relic avec une offre baptisée Full-Stack Observability qu’il vient d’étendre de manière très significative, notamment en intégrant la solution Auto-telemetry with Pixie, un pas en avant significatif dans l’observabilité Kubernetes en temps réel.
Les principales solutions ITOM ont migré vers le Cloud
Outre ces nouveaux entrants, tous les acteurs venus du monde de l’ITOM se sont positionnés sur ce marché de l’observabilité Cloud à l’image de BMC qui propose aux entreprises sa suite Helix dédiée au Service Management, une suite de services qui inclut notamment Helix Discovery pour le volet découverte et Helix TrueSight, une évolution de BMC Patrol pour la partie hypervision et automatisation des Ops. Stéphane Chantalou, vice-président des ventes chez BMC Software pour la zone Central Europe, dont l’une des pistes d’innovation sur ces solutions porte sur le Proactive Monitoring, explique : « Prévoir ce qui va survenir dans l’infrastructure est extrêmement important car cela permet d’intervenir en amont d’un incident plutôt que de devoir intervenir une fois que celui-ci est survenu. L’intelligence artificielle nous permet d’identifier des patterns, des tendances pour prévoir les incidents. » Une autre priorité affichée de l’éditeur est de miser sur l’ouverture et les standards pour s’intégrer aux outils DevOps. « Nous livrons nos solutions en Open API, le but étant de délivrer un service de supervision de bout en bout avec nos propres solutions, mais aussi des solutions plus spécialisées, en fonction du niveau de granularité recherché. Notre maître mot, c’est l’ouverture et la compatibilité. » Dans le domaine de l’observabilité, l’heure est clairement à l’ouverture. Récemment, Dynatrace, le grand rival de BMC a annoncé le support du standard OpenTelemetry par sa plateforme et donc ne plus devoir déployer un agent OneAgent sur la ressource à suivre, un progrès vers plus d’ouverture. Le multicloud fait clairement bouger les lignes dans le monde de l’observabilité.
« La plateforme Splunk est bien adaptée aux contraintes de l’observabilité »
Stéphane Estevez,
directeur du Marketing Produit de Splunk EMEA
« Le pilier de l’observabilité, c’est de pouvoir corréler les logs, les métriques et les traces. Une métrique indique s’il y a un incident, les traces indiquent où se situe le souci et les logs permettent d’expliquer le souci en question. L’important est d’être capable de consolider l’ensemble de ces données quelle qu’en soit la nature, or Splunk est avant tout une plateforme de données. La plateforme Splunk dispose des connecteurs vers de multiples sources de données internes ou externes et de multiples technologies. C’est la raison pour laquelle elle est bien adaptée aux contraintes de l’observabilité.
D’autre part, le temps réel a tout changé : les technologies sont à la fois extrêmement rapides dans l’allocation et l’arrêt des ressources, mais aussi dans les incidents qui remontent. Il faut avoir les informations de fonctionnement en streaming pour savoir ce qui se passe dans l’infrastructure et surtout être capable de corréler cette information avec les ressources exécutées au même moment. Ces contraintes poussent les DSI à adopter des approches nouvelles. »
« L’intérêt de ServiceNow est de pouvoir déployer directement sur le Cloud »
Matthieu de Montvallon,
Director, Solution consulting chez ServiceNow
« Chaque fournisseur de Cloud public fournit ses propres outils de déploiement et d’observabilité pour les ressources qu’il va héberger pour l’entreprise. L’intérêt de se tourner vers une solution comme ServiceNow est de pouvoir déployer directement sur le Cloud avec les processus de déploiement de l’entreprise sans devoir utiliser les outils mis à disposition par chaque fournisseur Cloud. L’entreprise a une seule et même approche alors que l’entreprise déploie ses workloads en mode on-premise, en mode hybride ou en multicloud. Une approche commune et centralisée prend tout son intérêt lorsqu’on s’appuie sur 2, 3 fournisseurs Cloud. Cette approche ouvre la voie à quatre grands cas d’usage : la gouvernance des ressources, le Cost Management pour gérer les coûts générés par le Cloud, la mesure des usages et enfin le volet APM. »