Conséquences de dysfonctionnements ou d’erreurs humaines, les coûts cachés liés à la gestion des données peuvent être réduits grâce aux outils ADM. Légers, ils permettent d’agir à deux niveaux : en curatif mais aussi en préventif avec des effets visibles sur le long terme.
Le débat n’est pas nouveau. On parle de coûts cachés liés à la donnée depuis des décennies. Pourtant, le problème reste d’actualité pour les entreprises et un pensum pour le contrôle de gestion chargé d’analyser la rentabilité de l’activité, a fortiori dans un monde du Big Data qui fait croître ces problèmes de façon exponentielle.
De quoi s’agit-il ? Sont désignés comme cachés les coûts dus à des phénomènes non pris en compte dans la comptabilité générale. Dépourvus de dénomination comptable, ils n’ont tout bonnement pas d’existence. Ils forment la fameuse partie immergée de l’iceberg des coûts, difficile à cerner et à chiffrer, mais dont on est sûr qu’elle pèse sur la rentabilité.
Selon l’ISEOR (Université de Lyon), les coûts cachés sont de deux types : il y a ceux effectivement pris en compte mais dilués dans la masse des charges et ceux non pris en compte et qui correspondent à des manques à gagner, désignés comme des coûts d’opportunité. Par opposition, les coûts visibles peuvent être rattachés avec certitude à un événement et sont mesurables.
D’où viennent ces coûts cachés ? Ils sont souvent le fait d’une mauvaise qualité des données injectées manuellement dans le système d’information, entraînant une cascade de conséquences.
Pour l’illustrer, observons un cas concret :
La saisie dans l’ERP d’une adresse client erronée ou d’une mauvaise désignation d’article va immanquablement provoquer une erreur de livraison. Au mieux, l’article est renvoyé, au pire, il est perdu. Quoi qu’il en soit, l’impact de cette erreur va se propager au-delà de la simple gestion du retour de marchandise : l’entreprise va devoir réexpédier à la bonne adresse (ou changer le produit), remplacer l’article s’il y a eu perte, assumer une sortie de stock qui ne donnera pas lieu à facturation et enfin mettre en branle le service client pour tenter d’éteindre le mécontentement et restaurer la confiance.
Pour chaque erreur de ce type, elle devra acquitter de nouveaux frais de livraison (un coût visible), auxquels vont s’ajouter un surtemps générateur de sursalaire passé à résoudre le problème, une allocation de ressources consacrées à la régulation des dysfonctionnements – qui ne sont alors plus disponibles pour des activités à valeur ajoutée -, une différence d’inventaire, un réapprovisionnement, voire la perte du client. L’addition devient lourde. Surtout quand on sait que les dépenses d’acquisition client sont 3 à 5 fois supérieures à celles consacrées à la rétention. Pour l’entreprise, c’est une réelle perte d’efficacité commerciale. Un phénomène qu’ont souligné les cabinets d’études Gartner et Ventana (1), lesquels ont estimé que les non atteintes des objectifs commerciaux seraient dus à 40 % à des mauvaises données. De quoi alimenter quelques tensions entre services internes !
Autre exemple de victime collatérale de la mauvaise qualité des données : les Achats. Des données dégradées dans les comptes fournisseurs (au niveau des coordonnées bancaires ou des conditions de paiement par exemple) vont conduire à des retards répétés dans le règlement des factures. En réaction, les fournisseurs peuvent décider de stopper ou retarder les livraisons, réviser leurs conditions de paiement ou privilégier d’autres clients sur un produit innovant de leur gamme. Pour l’entreprise, ce sont là encore autant d’opportunités de ventes perdues. Dans le même temps, l’entreprise s’expose à un risque de fraude sur les paiements, ce qui rend le sujet de la gestion des fournisseurs d’autant plus sensible.
Mener une politique de Data Management curative et préventive
Pour lutter contre ces coûts cachés et redonner de la valeur à la donnée, l’entreprise doit se tourner vers le Data Management. Cette technique consiste à responsabiliser chaque acteur pour la ou les données qu’il ou elle doit renseigner.
Deux solutions s’offrent à elle : lancer un grand chantier informatique, mais qui demande du temps et requiert un ticket d’entrée élevé, avec un fort risque de ne pas atteindre une cible qui aura évolué entre la conception et la livraison. Ou opter pour une approche agile avec des applications plus légères, type ADM (Applications Data Management). Ces dernières agissent à deux niveaux : immédiatement en curatif, puis en préventif, pour envoyer de manière industrielle dans l’ERP des données correctes dès l’amont et maintenir un bon niveau de qualité dans le temps. Dans une approche ADM, l’entreprise sera en mesure de réaliser des applications « quick win » itératives qui n’auront rien à envier à des projets de grande ampleur.
En mode curatif, l’outil ADM permet aux opérationnels de réaliser des extractions en masse et d’utiliser Excel pour analyser les manquements dans leurs données. Si, par exemple, le problème vient de mauvaises saisies récurrentes d’attributs (poids, emballage…) dans les unités de manutention SAP, le traitement visera à rechercher tous les attributs concernés pour les corriger, ligne par ligne. Dans un second temps, en mode préventif, l’outil sera utilisé pour mettre en place des workflows automatisés, partagés par tous les utilisateurs métier concernés, avec des règles de saisie des données qui éviteront de reproduire les erreurs de saisie. A la clé, une gestion ad hoc des données et des processus métier mieux maîtrisés.
Il restera toujours des coûts liés à de mauvaises données, mais en agissant de manière rapide et systématique pour les identifier et les supprimer, l’entreprise réduira son exposition aux risques. En complément, cette analyse de ses processus lui permettra de trouver des opportunités d’amélioration et de nouveaux gisements de performance.
Par David Coerchon, Winshuttle
(1) Gartner, Measuring the Business Value of Data Quality Published: 10 October 2011