Durant la prochaine décennie, le centre de données devra se reconfigurer continuellement pour faciliter le travail collaboratif, soutenir des services mobiles, conformes et innovants.
Le datacenter de proximité s’impose dès qu’un délai de latence réduit ou une faible distance des utilisateurs conditionne la qualité des services fournis. C’est le cas de la vidéo à la demande ou des jeux en ligne par exemple, mais aussi d’un nombre croissant d’applications professionnelles et de logiciels délivrés en mode SaaS.
« Les véhicules autonomes et les applications de télé-médecine font partie des services où la proximité des calculs compte beaucoup, illustre Sami Slim, Deputy Director de Telehouse France. Avec la plateforme Stadia de Google, n’importe qui peut jouer depuis son browser web en bénéficiant d’une qualité équivalente à celle d’une console de jeux moderne. Le véritable défi demeure le délai de latence du réseau. Il force Google à investir nos régions, à bâtir des alliances avec les opérateurs pour héberger les serveurs au plus près de l’utilisateur final. Netflix doit agir de même pour diffuser ses séries interactives. »
Les usages massifs d’applications mobiles et le travail collaboratif à distance multiplient les interactions et les sessions audiovisuelles depuis le navigateur web. Or, pour que le serveur reste accessible sans délai perceptible, mieux vaut ne pas l’éloigner de plus de 20 kilomètres de l’utilisateur. La composition et le maillage des centres de données évoluent dans ce sens.
Des micro-services à déployer
Pour Sami Slim, « la direction technique de l’entreprise française de taille moyenne exploite volontiers des ressources Cloud dans un grand datacenter de colocation, quitte à appauvrir son informatique interne. Elle ne conserve au siège que l’IT critique, ses données confidentielles et quelques applications non éligibles au Cloud. »
Les ETI et les grands comptes en Bretagne cherchent à présent un partenaire de proximité pour mettre en production de nouveaux services métiers : « Nous avons de plus en plus de demandes pour déployer rapidement des applications développées sous la forme de micro-services avec une administration unifiée quel que soit l’environnement. Nos équipes d’ingénierie combinent les technologies de VMware à Docker Cloud et au SD/WAN avec, en soutien des baies de stockage PureStorage et des sauvegardes Veeam », précise Réda Belouizdad, le directeur du marketing de Bretagne Télécom. Certifiée pour l’hébergement de santé, cette plateforme autorise l’accès distant sécurisé, son bastion filtre et conserve les sessions de maintenance.
Les géants mondiaux du Cloud proposent aux entreprises internationales une vaste liste de services managés résiliants. Ils sont bâtis autour de racks fortement industrialisés, et de middleware open source.
« Face à Microsoft Azure, Google et Amazon Web Services, le prestataire de proximité a encore un avenir s’il s’avère capable de proposer des services génériques de type Cassandra ou Elastic Search, équivalents à ceux des géants du Cloud. La conteneurisation, la gestion du stockage et des fermes de serveurs deviennent des commodités », observe Philippe Prados, consultant senior d’Octo Technology.
Les prestataires français jouent à fond la carte du Cloud souverain, promettant que les données sensibles et confidentielles, telles que les dossiers médicaux des patients d’un CHU, resteront stockées sur des équipements en France.
Le secteur public est un prescripteur
« Le secteur public encourage l’industrie numérique à rester sur l’Hexagone. Et les présidents de région militent pour leur territoire, mais, en grandissant, les startups financées localement finissent par migrer leurs services vers Paris ou d’autres métropoles. En régions, le secteur public a toujours été un prescripteur.
On fait appel à nous pour construire des datacenters locaux, voire un cluster de sites régionaux », confirme Anwar Saliba, le directeur général adjoint d’Euclyde.
Le Cloud souverain, atout éphémère
Tout comme les choix initiaux des startups sont remis en cause durant leur croissance, les datacenters doivent dorénavant réviser leurs configurations et leurs partenariats technologiques plus fréquemment. « La nationalité du prestataire compte pour se prémunir de risques géostratégiques, vis à vis des réglementations chinoises et américaines en particulier. Mais, à mon avis, cela reste un argument commercial à court terme, pour gagner quelques parts de marché. Gagner la confiance des clients à grande échelle passe par d’excellents produits et services proposés à un prix raisonnable, offrant une expérience exceptionnelle », conclut Sami Slim.