par Stefan Radtke, Field CTO EMEA, Qumulo
Avec la croissance exponentielle rencontrées aujourd’hui par les données non structurées, beaucoup s’accordent à dire que le modèle classique de réseau NAS (Network Attached Storage) a atteint des limites techniques et économiques. Afin de pouvoir stimuler la performance et l’innovation, il est donc urgent de donner aux équipes IT la liberté d’utiliser les données non-structurées d’une manière plus adaptée aux besoins des entreprises modernes. Pour répondre à ce challenge, on peut donc se poser la question légitime sur l’endroit où ces données doivent être gérées – sur site, dans le cloud ou en mode hybride ?
Dans un contexte de croissance rapide et de développement commercial, les entreprises s’appuient de plus en plus sur des actifs numériques non structurés pour pouvoir innover. Ce phénomène s’explique par une production de contenus numériques de plus en plus volumineux. On constate aujourd’hui que les données non structurées sont en pleine accélération comme le montre le cabinet d’études IDC qui prévoit une augmentation de 80 % des données non structurées. Cette explosion se fera notamment ressentir avec l’arrivée de nouvelles applications et de nouveaux services informatiques.
L’échange de ces données non structurées entre les équipes doit se faire en toute confiance et transparence. En favorisant l’accès aux données grâce à des applications accessibles dans le cloud, cette transparence adapte les expériences numériques et innove les ressources au sein d’une entreprise.
Une grande variété de sociétés au coeur de la gestion des données non structurées
Pour certaines industries, le contenu numérique grand format prend une très grande importance, avec des images haute résolution qui doivent être analysées et reconnues, telles que des films, des animations et des jeux, ainsi que les médias sociaux, les données géo-spatiales, les fichiers CAO, etc. Il peut être crucial pour des employés hautement qualifiés (médecins, analystes financiers, chercheurs,…) d’avoir accès aux données rapidement et efficacement afin d’éviter tout ralentissement de projet ou d’action.
Néanmoins, un point d’interrogation se pose : Les entreprises sont-elles en capacité de répondre aux besoins des charges de travail à haute performance et intensité de données ? Avec des équipes informatiques occupées à gérer des données de mauvaise qualité, elle en oublie de fournir aux équipes opérationnelles des outils dont elles ont besoin, tels que des services d’application. Pour ce faire, il n’est pas nécessaire de réécrire ou remplacer les applications d’origine pour faire avancer l’entreprise. Un redéveloppement de l’architecture n’est pas non plus nécessaire.
Un contexte de capacité et de performance dans le cloud ou sur site
Avec des données non structurées dans le cloud, il est plus facile d’utiliser des fonctions natives telles que l’IA et le Machine Learning, même avec des décennies d’utilisation de données et de propriété intellectuelle stockées sur d’anciens systèmes de stockage. Cependant, avec une plateforme de données qui utilise un logiciel capable d’exécuter le même système de fichiers dans le cloud et sur site, les données peuvent être partagées de manière native et transparente entre les sites ou les régions. Cela signifie qu’ils peuvent partager de grandes quantités d’informations en peu de temps avec des capacités de stockage et de calcul illimités dans le cloud, sans compromettre la maniabilité.
L’utilisation d’une plateforme de fichiers et de données cloud stimule l’innovation dans toute l’entreprise en permettant aux équipes de travailler conjointement de manière transparente, éliminant ainsi les limites du stockage des données. En utilisant les données de manière appropriée, les entreprises peuvent faire apparaître d’anciennes manipulations et envisager des opportunités commerciales entièrement nouvelles, telles que l’analyse des tendances à long terme, l’apprentissage et la maintenance prédictive.