Devoxx France est une conférence indépendante, organisée par le Paris Java User Group, du 16 au 18 avril prochain à Paris. Durant 3 jours, la conférence propose aux développeurs (expert Javascript, coach Agile ou architecte technique…) plus de 130 présentations, des ateliers pratiques et des sessions approfondies. Nicolas Martignole explique les évolutions du métier de développeur liées au Big Data dans un avis d’expert initialement intitulé “Les 3 Grands V du Big Data”
Chaque jour qui passe, une entreprise créé des chiffres et de la donnée. Chaque achat, chaque opération par vos équipes métiers produisent des informations qu¹il faut gérer. Les grands du Web comme Amazon, eBay ou Google nous ont appris que la donnée pouvait être une source de création de valeurs. Nous avions déjà les mainframes, où des traitements suffisaient à calculer chaque jour des indicateurs métiers. Nous utilisons les outils décisionnels pour piloter et prendre la bonne décision, au bon moment. Oui, mais ça, c'était avant. Avant que l'innovation arrive des grands du Web. Avant de voir la puissance et les possibilités du Big Data, ce que nous appellerons les 3 GV : Gros Volume, Grande Valeur et Grosse Vélocité. Interrogeons-nous sur ces 3 points : que faites-vous de ces données ? Est-ce que votre système d'information se comporte comme un robinet ouvert ou comme un puit de pétrole ?
Le volume
La première caractéristique du Big Data c'est bien sûr le volume de vos données. Quel est le coût de stockage de cette information ? Qu'en faites-vous ? Quel est le facteur de croissance de vos données ? Savez-vous quelle quantité d'information se perd chaque jour dans votre système d'information ? Nous pouvons supposer que vos équipes techniques utilisent déjà des tableaux de bords afin de surveiller vos machines : CPU, mémoire, entrée/sortie réseau, logs techniques…Š Mais cela ne représente aucun intérêt pour le service marketing. Votre responsable des ventes souhaite désormais pouvoir voir en temps réel la fréquentation de votre site. Plus que des données techniques, la clé est d'exploiter le volume des données métiers. Cela permettra de prédire et de mieux comprendre ses clients. Avez-vous déjà ces outils ? Seront-ils capable de traiter trois fois plus de données dans 6 mois ? Quantifier et identifier, c'est finalement donner sa propre définition du volume utile. Que ce soit sur le format de stockage, les outils utilisés, ou même votre politique de sécurité, ce volume peut représenter votre première source de revenu dans quelques mois.
La valeur
A défaut d¹exploiter, nous vivons une époque où il est possible de tout enregistrer et de tout stocker. Les développeurs ont aujourd'hui accès à un écosystème de solutions techniques pour pouvoir créer de la data. Rien de plus simple que de rajouter un collecteur dans une application Web, puis faire suivre un achat ou un choix de produit vers un système dédié. L'ancien développeur Web ne voyait que l'entrepôt de données, bien souvent une base relationnelle. Le développeur Web doit maintenant aussi penser à stocker le comportement des utilisateurs d'une application vers un nouveau système. Oui, les projets Big Data, c'est aussi cela. C'est une vision où le développeur doit être amené à créer de la valeur, à préparer et stocker de l'information métier. Les logs techniques c'est bien. Les logs métiers c'est vraiment mieux. Vos équipes sont-elles sensibles à cette évolution ? Est-ce que des solutions simples, basées sur des standards ouverts du marché sont à l'étude ?
En poussant un peu plus loin, nous pouvons imaginer deux mondes. Le premier, où le DSI ne pourra pas expliquer aux investisseurs pourquoi rien n'a été stocké depuis tant d'années. Le second, où le DSI n'est plus un simple gestionnaire de patrimoine. Il sera assis sur un volume de données marketing aussi important pour l'entreprise que ce magnifique siège social à la Défense. A quand une assurance sur votre patrimoine de données ?
La vélocité
Le développeur a ici une carte à jouer. Par analogie avec le monde de la finance, où le trading haute fréquence est devenu majeur, rêvons un peu quant à l'exploitation des données type Big Data. A quand une solution capable de faire de l'arbitrage et commander pour nous, au meilleur moment, un billet d'avion ? En tant que développeur, nous avons aujourd'hui accès à une puissance phénoménale. Une recherche sur Redis ne prend que 10ms, 10 à15 fois moins de temps qu'un clignement d'oei. Nous gagnons du temps en stockant intelligemment les données, en les dénormalisant, bref en créant encore plus de volume techniques. Pourquoi ? Parce que le disque ne coûte rien, que la mémoire devient le disque dur d'hier. Ce qui fera aussi la différence, c'est la simplicité. Non, Hadoop n'est pas la réponse à tous les projets Big Data. Nous avons encore à apprendre des solutions du monde du décisionnel, et parfois, d'un peu de pragmatisme.
En conclusion
Nous nous battrons demain pour trouver des analystes techniques. L'expert Hadoop sera courtisé comme l'a été son père, l'expert B.O avant lui, et son grand-père, l'expert Mainframe. Demain, de nouveaux métiers apparaîtront comme expert-analyste, chirurgien des données, actuaire numérique, assureur de données ou conservateur des hypothèques numériques. Mais tout, absolument
tout, passera d'abord dans les mains d'un développeur. Les éditeurs de logiciels ont aussi la promesse d'un nouvel eldorado. Solutions de calculs, représentation, analyse, prédiction, machine-learning… Nous sommes certainement à l'aube d'une nouvelle petite révolution technique.