Le CEO de Pentaho, Quentin Gallivan, développe ici pour les lecteurs de Solutions-Numériques cinq voies vers lesquelles les systèmes Big Data et IoT évolueront en 2017.
Cette année le Royaume-Uni a voté la sortie de l’Union Européenne et l’Amérique a élu Donald Trump contrairement à ce que prédisaient presque tous les sondages. La raison pour laquelle ces événements nous ont surpris se résume à un problème de données. Les sondeurs avaient accès à d’énormes jeux de données diverses, mais ils se sont appuyés sur des méthodes dépassées. Leur plus grande erreur a été de ne pas quantifier le sentiment des électeurs au sein de leurs analyses, notamment dans les régions rurales où cela n’a pas été bien compris. Que les gouvernements des deux côtés de l’Atlantique aient été pris à défaut par les mêmes problèmes de données signifie aussi qu’aucun n’avait les plans de transition adéquats.
De même que ces méthodes de sondage obsolètes ne sont plus utiles aux gouvernements, les anciennes façons d’analyser ne suffisent plus dans le monde économique. Chaque jour, je parle à davantage d’entreprises qui croisent leurs données avec des données relatives aux sentiments, aux lieux et en provenance de capteurs. Elles cherchent à obtenir des connaissances plus précises qui permettent d’augmenter les revenus, de bénéficier d’une vision à 360 degrés des clients, de réduire les risques et d’opérer plus efficacement. Alors que la croissance du Big Data résulte de données provenant de capteurs et d’appareils, nous constatons qu’il n’y aura pas de ralentissement des volumes de données, alors que l’IoT et le Big Data fusionnent. L’écart se creuse entre les innovateurs enclins à démarrer, à expérimenter et à affiner leurs mises en œuvre, et les sociétés ne prenant pas d’initiative.
Et tandis que l’année prochaine nous prendra de court, je suis suffisamment confiant pour prédire cinq voies vers lesquelles les systèmes Big Data et IoT évolueront en 2017, afin de contribuer à la prospérité des entreprises durant cette période d’incertitude.
1. La préparation des données en libre-service libèrera pleinement la valeur des données. Les organisations qui déploient des projets Big Data avancés, tout comme celles qui ont besoin de prédire les résultats des élections ou le sentiment des clients, croulent sous d’énormes volumes de données variées. Le temps passé à simplement préparer les données submergent les entreprises qui ont des difficultés de ressources et de temps. C’est souvent à hauteur de 50 à 70% du temps de l’équipe informatique passés à préparer les données. Ces données relatives aux sentiments que j’ai mentionnées ne font qu’exacerber ce problème en nécessitant d’être continuellement ingérées à partir de l’immense univers de contenus des réseaux sociaux et d’être préparées pour l’analyse. Les outils de visualisation en libre-service qui permettent de visualiser les données après qu’elles ont été préparées diminuent la valeur. En 2017, attendez-vous à ce que plus d’éditeurs de logiciel proposent des outils qui comblent cet écart entre l’analytique et la préparation des données.
2. Les entreprises remplaceront le reporting en libre-service par de l‘analytique embarquée. Comme je l’ai initialement prédit en 2015, l’analytique embarquée est la « nouvelle BI ». A présent, nous commençons réellement à voir la maturité de notre vision « d’applications de nouvelle génération » et à remplacer le reporting en libre-service. Les entreprises constatent que l’analytique est une exigence et qu’elle doit être embarquée au point d’impact indépendamment de la sophistication au niveau de l’utilisateur final. A titre d’exemple, le cas d’usage de notre client le CERN concerne 15 000 utilisateurs du monde entier à des postes très différents qui accèdent à l’analytique à partir de leurs applications standards.
3. L’adoption de l’IoT et la convergence avec le Big Data rendra le data onboarding indispensable. Cette année, la maintenance prédictive est devenue un cas d’usage brillant en termes de potentiel de retour sur investissement et continuera à prendre de la vitesse en 2017. De l’expédition de conteneurs, au forage pétrolier ou aux portes de train, tout est doté de capteurs pour détecter des informations comme le lieu, l’état de fonctionnement et la consommation d’énergie. Dans le but d’ingérer, de croiser et d’analyser les volumes de données importants que génèrent tous ces capteurs, un plus grand nombre d’entreprises auront besoin de pouvoir détecter automatiquement et d’embarquer n’importe quel type de données au sein de leur pipeline analytique. Cela est un travail simplement trop important, complexe, changeant et abrutissant pour que les équipes informatiques surchargées l’effectuent manuellement.
4. Les premiers à adopter l’intelligence artificielle et le machine learning dans l’analytique auront l’avantage. Les cas d’usage Big Data et IoT dans les entreprises et l’industrie génèrent d’immenses volumes de données et une vélocité pour lesquels les modèles d’intelligence artificielle et de machine learning à grande échelle ont été initialement conçus. Les adopteurs précoces bénéficieront d’une longueur d’avance sur le marché en 2017, parce qu’ils savent que plus tôt ces systèmes commencent à apprendre sur les contextes dans lesquels ils opèrent, plus tôt ils se mettront à travailler l’extraction de données pour faire des prédictions de plus en plus précises. Cela s’applique aussi bien aux commerçants en ligne voulant offrir de meilleures recommandations à leurs clients, qu’aux industriels voulant minimiser leurs coûts élevés de maintenance, qu’aux fabricants de voiture sans chauffeur ou aux aéroports cherchant à empêcher la prochaine attaque terroriste.
5. La cybersécurité sera le cas d’usage Big Data le plus répandu. Tout comme pour les sondages électoraux, détecter les brèches de cybersécurité dépend de la compréhension des comportements humains. Des prédictions précises reposent sur le croisement de données structurées avec des analyses de sentiments, de lieux et d’autres données. Selon un rapport de Morgan Stanley en juin dernier, le marché de la cybersécurité pourrait dépasser de quatre fois l’ensemble des dépenses informatiques. “L’an passé, la violation des données a été plus grande que jamais avec deux fois plus de vulnérabilités Zero Day (faille logicielle qui n’a pas encore été découverte par le fabricant), un record de neuf méga-failles (plus de 10 millions compromis), et déjà une nouvelle hausse des attaques de crypto-ransomwares dans lesquelles les fichiers les plus critiques des victimes sont tenus en otage.”
Voilà, je me suis aventuré à faire quelques prédictions, toutes inspirées par nos clients et utilisateurs qui continuent à demander plus de facilité d’utilisation, de connectivité, d’automatisation, d’agilité et de solutions pragmatiques aux problématiques de données les plus ardues. Nous ne cesserons jamais de nous confronter aux défis les plus difficiles.