Réaliser trois copies des données sur deux médias distincts dont au moins une hors site : bien appliquée, cette stratégie garantit l’exploitation continue des services critiques de l’organisation.
Selon une étude récente commandée par VMware, 83 % des entreprises optant pour le Cloud sont à la recherche d’infrastructures et d’exploitation cohérentes, du datacenter au Cloud. Les éditeurs délaissent les logiciels de sauvegarde par environnement pour viser une offre plus ambitieuse et valorisante : la plateforme de gestion et de protection des données dans le Cloud connaît un succès croissant. Plutôt que de multiplier les îlots de sauvegardes, elle entend protéger toutes les charges applicatives critiques des serveurs physiques et virtuels. Elle s’accompagne de conseils et de services pour former une nouvelle grappe de stockage évolutive en mode scale-out capable de répondre aux besoins précis de chaque organisation.
Les bonnes pratiques de protection de données d’hier restent valables aujourd’hui. La règle de sauvegarde 3-2-1 peut toujours prendre la forme d’un simple script enchaînant des copies de volumes sur un serveur local, puis leur transfert hors site, vers le siège, une agence ou le Cloud. D’autres fonctions rejoignent ces automatismes au sein d’appliances et de logiciels avancés. Par exemple, la compression et la déduplication des données réduisent les volumes à sauvegarder. La tolérance aux pannes de médias est assurée par fragmentation et redondance (erasure coding) et l’IA s’immisce parfois dans les offres les plus récentes.
En pratique, de nombreuses copies de fichiers sont réalisées, parfois par les utilisateurs eux-mêmes lorsqu’ils craignent une défaillance technique ou la perte de leur ordinateur portable. Mais elles sont rarement faites avec la régularité et la rigueur qui conviendraient.
Pour une résilience renforcée du système d’information, la stratégie 3-2-1 se décline en 3-2-2 ou 3-3-2. On confie les données numériques à plusieurs médias et infrastructures distincts, comme des œufs que l’on répartirait dans plusieurs paniers. L’équipe IT profite d’unités NAS de grande capacité, de disques amovibles, de bibliothèques de bandes magnétiques, et de plusieurs Clouds redondants. Dès lors, la restauration en cas de panne peut devenir complexe. D’où l’émergence de plateformes intelligentes de gestion et de protection des données dans le Cloud, un marché où des acteurs comme Acronis, Cohesity, Dell-EMC, Rubrik ou Veeam affichent une croissance annuelle allant jusqu’à trois chiffres.
Consolider les données réparties
Avant de procéder à la sauvegarde de fichiers, une étape essentielle consiste à consolider les informations à temps pour former le jeu de données vitales. Selon les liaisons empruntées, cette opération exige parfois un projet à part entière. C’est le cas du groupe RES (Renewable Energy Systems) qui exploite un parc de centrales éoliennes et solaires de plus de 800 MW : « Nous ne conservons jamais toutes les données d’exploitation et de stabilisation des installations en local. Elles sont remontées toutes les trois heures, en provenance de plus de 100 capteurs (température, courant, tension, pression hydraulique, capteurs de vent, états des actionneurs, etc.), et représentent un volume d’un gigaoctet par mois et par éolienne », précise Fabien Poitevin, le responsable du centre d’exploitation couvrant la moitié nord de la France et la vallée du Rhône. Certains parcs RES comptent une trentaine de turbines et sont parfois éloignés de toute infrastructure réseau filaire à haut débit. Consolider les fichiers devient alors une étape critique, non seulement pour la sauvegarde mais aussi pour anticiper la quantité d’énergie produite chaque jour et évaluer son prix.
Un développement interne assure l’accès critique aux données réparties en profitant de serveurs SFTP placés dans le poste de raccordement électrique ou à proximité. Des liaisons SDSL et satellitaires ont été combinées. Mais le parc en altitude reste propice à la prise au vent comme au gel, provoquant des pertes de connexion vers les satellites. Les sites de production d’énergie renouvelable sont maintenant raccordés au réseau Internet en 4G lorsque la couverture le permet. L’équipementier lyonnais Icow Systems fournit une box avec deux abonnements d’opérateurs pour une meilleure disponibilité : « Les boîtiers arrivent pré-configurés, de sorte qu’en les connectant, un tunnel VPN IPSEC est monté et les échanges chiffrés entre sites démarrent automatiquement. Cette solution s’avère rapide et cinq fois moins chère que l’installation de nouveaux liens SDSL par l’opérateur historique », apprécie Fabien Poitevin. Ultime précaution, les champs de données ont été standardisés pour pouvoir comparer les performances des turbines de constructeurs distincts. L’équipe interne peut ainsi fournir aux décideurs et aux actionnaires un dashboard multi-technologies. Une supervision simple et efficace vérifie l’état des liens étendus : un système envoie des ping chaque minute et accélère la cadence en cas de silence. Lorsque l’absence de réponse est confirmée, une alerte est déclenchée ainsi qu’un ticket d’incident pour rechercher la panne.
Prévenir la corruption des workloads
Définir une politique pour prévenir la corruption des données où qu’elles soient stockées devient une priorité à l’heure du Cloud hybride.
« L’utilisation de plusieurs destinations et formats de stockage augmente la résilience de l’infrastructure de sauvegarde. Qu’il s’agisse d’une combinaison de bandes, de stockage sur disque secondaire ou sur Cloud, le fait d’avoir un historique de sauvegardes réparti sur plusieurs emplacements, garantit qu’en cas d’imprévu, on disposera toujours d’un point de récupération », confirme Daniel de Prezzo, responsable des technologies de Veritas Technologies pour l’Europe du sud. Selon lui, la politique de protection doit assurer la conformité et la disponibilité des données à long terme.
« Les sauvegardes permettent de voyager dans le temps et de revenir à un état antérieur fonctionnel. Mais attention aux services SaaS qui doivent être manipulés avec le plus grand soin », prévient-il. Une exploitation IT efficace dépend donc de la compréhension fine du fonctionnement interne des charges de travail, des infrastructures et environnements sur site comme en Cloud natif.
L’étude du besoin de chaque entreprise prime, confirme Luc d’Urso, le CEO d’Atempo et de Wooxo : « la donnée professionnelle est partout, dans les photos et les SMS des salariés, le smartphone devient un terminal qu’il faut couvrir, tout en assurant une continuité des sauvegardes et en permettant aux clients de maîtriser leur budget. » Il souligne l’incontournable conformité de branche professionnelle qui contraint les notaires, par exemple, à préférer une solution d’externalisation des données chez eux plutôt que dans le Cloud.
Chaque politique de sauvegarde sera d’autant mieux suivie que l’interface du logiciel reste simple à utiliser. « Ce qui devient critique, c’est le redémarrage instantané, enchaîne Louis-Frédéric Laszlo, product manager d’Atempo. Un poste de travail peut être initialisé en moins d’une minute par un non informaticien. Avec le redémarrage en un clic, une machine virtuelle sous VMware ou un service Windows Server s’exécutera directement depuis l’appliance de sauvegarde. Cette reprise rapide, en mode dégradé, convient le temps de remettre les serveurs en production. » Que faire en cas d’incident sur l’appliance de backup elle-même ? C’est à ce moment-là que la restauration depuis le Cloud devient précieuse.
Evaluer les nouveaux entrants
Face aux acteurs établis de la sauvegarde que sont Dell EMC (acquéreur d’Avamar et de DataDomain), Atempo, Veeam et Veritas, les derniers entrants sur le marché offrent des plateformes gérant la fragmentation des données – elles sont réparties sur des infrastructures physiques et virtuelles, adossées aux applications d’aide à la décision aux SGBD et micro-services à présent. C’est le cas notamment de Cohesity et de son rival Rubrik qui connaissent un essor fulgurant depuis trois ans.
Le fabricant de camping-cars Carthago, fondé en 1979 à Aulendorf (Allemagne) emploie 1 400 salariés servis par une infrastructure complexe, en partie hyperconvergée. La combinaison du référentiel DataPlatform et du logiciel DataProtect de Cohesity procure davantage d’automatisation, des sauvegardes en mode Cloud natif et un tableau de bord couvrant toute son infrastructure. Le volume de données à sauvegarder a pu être réduit de moitié à 30 To, grâce à la compression et à la déduplication intégrées. Davantage de sauvegardes sont réalisées chaque jour, pour une exposition réduite aux pertes de données. « Nous avons été particulièrement impressionnés par le fait que Cohesity puisse automatiquement appliquer et respecter les accords de niveau de service saisis. Cela nous a vraiment donné davantage confiance dans notre infrastructure de sauvegarde », apprécie Markus Thiel, DSIO de Carthago.
Avec l’acquisition récente d’Imanis Data, Cohesity protège dorénavant les environnements Hadoop, NoSQL et MangoDB. Sa place de marché s’étoffe pour mettre à profit la ferme de sauvegardes à des fins d’analyse anti-malware notamment. Les données de sauvegarde peuvent aussi nourrir des serveurs de développement et de tests, tandis que l’archivage à long terme est orienté vers le Cloud.
Un rempart contre les cyberattaques
L’effectif et les clients de Rubrik ont triplé ces deux dernières années, en partie grâce à l’écosystème Nutanix dont l’éditeur fait partie. « Notre objectif consiste à nous servir des services de la sauvegarde pour offrir une solution simple d’intégration Cloud, précise Lionel Meoni, directeur technique de Rubrik France. Nos clients recherchent plus de rapidité et d’agilité. Ils doivent mettre de nouveaux services en production toujours plus vite. La course vers le Cloud fait évoluer les besoins. Nous sauvegardons des workloads complets dans le Cloud et assurons des mécanismes de transition comme la reprise en cas de sinistre ou le plan d’activité continue. Il s’agit parfois aussi de réduire les coûts, voire les ETP (équivalents temps plein) », confirme-t-il. Cette recherche d’économies encourage l’émergence d’architectures webscale évolutives : « Les clients commencent par une très petite configuration, puis changent d’échelle au fur et à mesure de leur besoin », explique-t-il. De telles offres savent déjà échanger des services entre elles. « Avec leurs outils de scripting ou au travers d’API, nos solutions interviennent sur divers périmètres tout en restant simples pour l’utilisateur. Elles bénéficient de l’intérêt actuel pour l’IA, le Machine Learning et l’approche DevOps », poursuit-il. Sans oublier la parade aux cyberattaques où la sauvegarde Cloud agit désormais comme une assurance vie.
« Le Cloud est un supermarché où personne
ne se rend compte de ce qui est consommé. »
Mathieu Sibieude
Réduire le coût de la restauration
« Faire une gouvernance financière, au-delà de celle des données, permet de s’assurer que le coût de la sauvegarde reste proportionnel par rapport au risque de perte d’informations », signale Mathieu Sibieude, Solution Manager Datacenter chez l’intégrateur NXO, un partenaire de l’éditeur Veeam, dont les solutions de protection et de reprise d’activités sont revendues par HPE, Cisco, NetApp et Lenovo. Il note que les entreprises externalisent plus volontiers leurs données vers le Cloud, que l’on peut assimiler à « un supermarché où l’on vérifie peu le volume que l’on stocke et où personne ne se rend réellement compte de ce qui est consommé. »
Le délai de rétention légal des données des collectivités territoriales et des CHU varie de 5 à 10 ans, avec peu de prestataires Cloud souverains, homologués, bref permis. Du coup, la classification des données devient critique, mais elle est peu pratiquée sur le terrain, regrette-t-il. « Derrière le changement d’infrastructure, du siège vers le Cloud, il y a souvent un projet consistant à minimiser les investissements ». La migration d’infrastructure forme donc le bon moment pour se poser la question des données vraiment utiles à sauvegarder : de nombreuses informations sont stockées pour rien, parfois même en contradiction avec le RGPD. Et, « la plupart des entreprises sont déjà, sans le savoir, dans un environnement multi-Cloud avec Office 365 et quelques machines virtuelles sur AWS ou sur Microsoft Azure. Le SI interne se transforme avec des enjeux de mobilité des workloads entre plusieurs Clouds. Malgré la présence d’API, le backup transverse reste complexe à réaliser. L’éditeur Veeam a suivi l’approche Cloud et assure la sauvegarde des documents Office 365 sur AWS, tout en offrant une forme de consolidation et une interface simple pour remonter dans le temps. Cela permet de retrouver rapidement un mail important ou un fichier perdu. »
Des alternatives et compléments open source
La sauvegarde requiert une étude préalable – technique et financière – et un travail d’intégration soigné, en particulier en mode Cloud natif. Le jeu en vaut néanmoins la chandelle face au volume croissant de données à protéger. L’offre open source adhère aux standards de facto, au format Tar et aux Clouds ouverts tel OpenStack. Elle doit être prise en considération au même titre que le stockage objet, l’archivage sur bandes et la sauvegarde en peer-to-peer de l’offre française Oxibox notamment.
Lorsqu’un système d’informations est sollicité en continu, il convient de vérifier que l’on peut sélectionner des volumes et organiser leur transfert vers plusieurs destinations, des agences réparties ou plusieurs Clouds externes. La plupart des fournisseurs Cloud ne facturent pas le télé-versement de données vers leur nuage. En revanche, ils facturent les téléchargements depuis leur Cloud. Les logiciels open source tels Bacula Cloud Backup aident à réduire la facture en cas de restauration, au travers d’une configuration de cache locale et d’un découpage des grands volumes de sauvegarde. Là encore, l’usage d’API simplifie le backup vers le Cloud d’AWS et vers les prestataires compatibles S3.
Lorsque le logiciel de sauvegarde n’offre pas de chiffrement vers le Cloud, on peut intégrer un outil complémentaire. Au niveau du poste client, le logiciel open source Cryptomator assure ainsi des transferts chiffrés et déchiffrés à la volée. Le partage et la synchronisation de fichiers manquent-ils à l’appel de la solution énvisagée ? Etudiez l’apport d’un serveur NextCloud, OwnCloud ou Pydio. Ces solutions libres assurent les partages en Cloud privé et forment de sérieuses alternatives aux offres SaaS de type OneDrive (Microsoft), Dropbox et consorts. A la clé, l’équipe IT maîtrise finement l’administration des profils, des dossiers partagés et des règles de synchronisation. Elle peut garantir des sauvegardes conformes à la politique d’entreprise, sans dépendre de prestataires externes aux réplications et contrats de services parfois opaques.