Accueil Etudes Pour plus de 50 % des data leaders, les architectures de données...

Pour plus de 50 % des data leaders, les architectures de données ont atteint un point critique de complexité

Les résultats d’une étude du Boston Consulting Group indiquent que les organisations sont confrontées à un contexte défavorable en matière de coûts, de complexité et de talents pour soutenir les initiatives critiques d’analyse de données et d’IA.

L’étude intitulée A New Architecture to Manage Data Costs and Complexity et sponsoriée par Red Hat et Starburst fait ressortir trois principales tendances qui remodèlent le paysage des données : le volume et la vitesse des données augmentent, les cas d’utilisation des données se démocratisent ce qui contribue au développement de citizen data scientists et les progrès technologiques ont modifié le modèle de tarification.

Selon le rapport, ces tendances engendrent des défis qui créent une pression immense sur l’architecture des données :

– Plus de 50 % des data leaders déclarent que les architectures de données d’aujourd’hui ont atteint un point critique de complexité ;
-Le nombre total de fournisseurs de données uniques a presque triplé au cours de la dernière décennie, passant d’environ 50 à plus de 150 aujourd’hui pour les grandes entreprises disposant d’un data stack plus mature ;
-56% des dirigeants ont déclaré que la gestion des coûts d’exploitation des données est un point sensible, mais continuent d’augmenter leurs investissements dans la modernisation et la construction de nouvelles architectures de données.

« La démocratisation des données continue alors que les capacités de lecture des données et les compétences basiques en langages de programmation, tels que SQL, deviennent plus répandues auprès des audiences non techniques. Selon l’étude, près des trois quarts (73 %) des personnes interrogées s’attendent à ce que le nombre de consommateurs de données non techniques augmente au cours des trois prochaines années », a déclaré Pranay Ahlawat, partenaire et directeur associé au Boston Consulting Group. « L’étude détaille la croissance des “citoyens scientifiques des données” et juxtapose cette croissance à la sophistication accrue des cas d’utilisation liés à l’IA. L’écart entre les cas d’utilisation et les technologies d’analyse plus avancés et les compétences analytiques requises limite actuellement les résultats commerciaux que l’IA peut générer. Seuls 54 % des dirigeants pensent que les initiatives de leur entreprise en matière d’IA créent une valeur commerciale tangible. »

Le rapport livre également quelques enseignements clés :

  • Les architectures de données évoluent pour devenir plus fédérées et orientées services : 68 % des entreprises aspirent à mettre en œuvre un paradigme architectural plus fédéré et distribué (c’est-à-dire un data mesh ou des data products) dans les trois prochaines années.

  • Le coût total de possession des données est à surveiller : les organisations peuvent établir une base de référence et une moyenne des dépenses pour comprendre les facteurs clés, tels que les personnes, le transfert et le mouvement des données, le stockage des données et les logiciels, de façon à améliorer les coûts tactiques à court terme en explorant plusieurs approches.

  • L’économie déterminera les choix d’architecture : le Cloud, l’open source et les hyperscalers continueront d’influencer les choix technologiques et la capacité à gérer l’envolée des coûts sera une priorité pour les entreprises lors du choix des architectures. Pour certaines organisations, le recours à des projets open source permet de réduire les coûts totaux du data stack de 15 à 40 %.