Robert Eve, Senior Director of Data Management Thought Leadership au sein de TIBCO Software. explique : “L’année 2021 s’annonce comme une période de réajustement en continu. Avec la prolifération des plateformes numériques et des applications, les données sont omniprésentes. Mais quel que soit le secteur d’activité, leur analyse, pourtant cruciale à l’activité des entreprises, est trop souvent en deçà du niveau requis et peu appropriée aux futurs besoins. Dans ce contexte, les entreprises ont tout intérêt à investir dans ce domaine pour en faire un facteur leur permettant de prendre l’ascendant sur la concurrence.“
L’analyse des données, un levier de croissance non négligeable
Les entreprises doivent mettre en place une stratégie analytique qui va venir soutenir, voire accélérer leur transformation numérique. En effet, si elle est utilisée efficacement, l’analyse des données améliore les processus métiers existants et garantit l’excellence opérationnelle. C’est non seulement l’expérience client mais également la supply chain dans l’industrie qui en tirent les principaux bénéfices, permettant ainsi aux entreprises d’innover et de se réinventer.
Certes, les données représentent une réelle opportunité mais il s’agit également de relever un défi de taille. Selon les chiffres les plus récents du Global DataSphere d’IDC, plus de 59 zettaoctets (Zo) de données ont été créés, capturés, copiés et consommés dans le monde en 2020. Au-delà de la difficulté que génère la gestion d’une telle quantité il est à noter que la situation est d’autant plus complexe que sur les 103 zettaoctets de données générées au total, seules 15 % utilisées sont originales, le reste étant des duplications. Même en se concentrant sur ces 15 %, la tâche est colossale car la plupart des données sont brutes, mal formatées, potentiellement corrompues ou non structurées.
La donnée est vivante et dynamique, et utilisée au fil du temps pour répondre à des besoins changeants pour une variété d’applications, sur différentes plateformes. La meilleure façon de faire face à cette variabilité est d’adopter une stratégie d’analyse de données ayant pour objectif de générer de la valeur à partir de celles, à l’image des données clients, qui ont le plus d’impact sur les métiers de l’entreprise.
Une architecture d’analyse de données flexible et agile
Dans la plupart des entreprises, les outils de gestion des métadonnées et master data, de gouvernance, de catalogues, de modélisation, de qualité, de sécurité et d’intégration de données sont des solutions distinctes. Il en va de même pour les applications de reporting, de visualisation, d’analyse et de data science. Ces silos créent une complexité supplémentaire, des coûts plus élevés, ainsi que davantage de friction en interne. En d’autres termes, plus d’efforts pour moins de valeur ajoutée.
C’est pourquoi, la création et le maintien d’une stratégie ouverte et flexible en matière d’analyse de données sont indispensables. Les environnements cloud et distribués partagent la même approche segmentée et stratifiée inscrite dans l’ADN de la décentralisation intelligente des données. Grâce à l’adoption des nouvelles approches en matière de data lakes, les structures peuvent facilement créer des solutions conçues aussi bien pour les individus que les machines. Ainsi, en s’appuyant sur des architectures distribuées, elles peuvent récupérer des données quels que soient la source et le lieu pour les livrer à n’importe quel consommateur, où qu’il se trouve et sur tout type de terminal.
Les architectures analytiques basées sur des standards ouverts sont par définition adaptées au changement et permettent aux entreprises de briser les silos entre leurs outils de gestion de données. Cette approche s’inscrit dans le cadre de la démocratisation des données qui consiste à mettre à la disposition de l’ensemble des utilisateurs, indépendamment de leurs compétences techniques, des fonctionnalités de visualisation en libre-service, data science avancée, streaming analytics et reporting.
L’Intelligence Artificielle face à l’analytique
Les solutions de gestion et d’analyse de données de nouvelle génération s’appuient sur des méthodes de développement et de déploiement combinant individus, processus et outils. Les entreprises peuvent ainsi concevoir rapidement des itérations de nouveaux jeux de données et modèles d’IA et de machine learning (apprentissage automatique). En effet, d’une part, les nouvelles techniques telles que DataOps et ModelOps offrent plus d’agilité sur l’ensemble du cycle de vie des données. Et, d’autre part, les outils intégrant l’IA permettent d’optimiser les résultats de l’analytique, tout en démocratisant son usage et assurant la mise à disposition de nouvelles applications à un rythme soutenu.
Sur le plan de l’analytique, une utilisation plus ingénieuse de l’IA et du machine learning génère donc de nombreux bénéfices. Ces technologies peuvent intervenir dans la création d’algorithmes ou leur amélioration par itération. Elles permettent également de découvrir de nouvelles tendances et connaissances sans programmation mais aussi d’optimiser les performances d’exécution des processus analytiques. Utilisées au sein d’outils de gestion des données, elles réduisent, en outre, les charges de travail des collaborateurs, notamment en matière de tâches répétitives. Grâce à cette évolution, les entreprises tirent parti des fonctionnalités offertes par ces solutions pour automatiser la partie la plus définissable, reproductible et quantifiable de leurs activités tels que les processus manuels.
En conclusion, les données sont omniprésentes dans toutes les applications sur chaque terminal et dans chaque machine intelligente. Cette tendance est amenée à évoluer de façon exponentielle. Aussi, les entreprises ont tout intérêt à adopter, en la matière, une stratégie évolutive. Ce n’est qu’en concevant une approche de plus en plus puissante en matière d’analytique, qu’elles relèveront les nouveaux défis qui se posent à elles.