Le succès a été au rendez-vous, une fois de plus. Presque 500 personnes se sont déplacées le 3 avril dernier durant la journée des tests logiciels pour suivre 8 sessions, plusieurs présentations d’éditeurs et une session plénière. La sélection a été assez sévère car au départ, une trentaine de sessions avaient été proposées. Les thèmes de cette journée ont été laissés aux intervenants. Plusieurs tendances ont été abordées : revue de code, analyses statiques, Scrum et les tests et des retours d’expérience. Il serait sans doute pertinent de proposer à l’avenir un thème central à la journée, afin d’éviter de partir un peu dans tous les sens.
Le test constitue un marché relativement dynamique en France par rapport au reste des activités IT : + 7 % selon une récente étude PAC. Et cette dynamique était visible dans la partie exposition avec des SSII très présents. Effet de mode ou réels engagements dans le testing ? L’avenir le dira.
Si les sessions n’ont pas répondu à la question, c’est quoi le test, et où, quand, comment les utiliser, le témoignage réel a été le point le plus positif de la journée. Nous avons particulièrement apprécié l’intervention de la DGA et la génération de tests à partir de modèles pour vérifier la sécurité des données. Et on pouvait voir à quel point, avoir une stratégie de tests est complexe et se complexifie avec la criticité des applications et des données. Et là, on peut voir comment utiliser différentes approches très complémentaires : scanning de réseau, tests de pénétrations, tests de cracking des mots de passe, test à l’aveugle ou batterie de tests modélisant les comportements. Cette diversité de tests et d’approches de la génération des tests se justifie à la DGA par la sensibilité des données et le besoin de la protéger. Le test à l’aveugle demeure indispensable car les tests depuis des modèles de comportements utilisateurs ne suffisent pas à trouver les failles. Au total plus de 2500 tests sont générés et appliquées. Mais détail que l’on oublie souvent et que les responsables de la DGA ont rappelé : il faut tester les tests. Et oui, générer des tests, des campagnes de tests c’est bien mais finalement, ces tests sont-ils fiables ? Trop souvent, le testeur ou le développeur fait une confiance aveugle aux batteries de tests, or, sont-ils fiables ?
En parallèle, Microsoft a voulu innover cette année en proposant un atelier TFS et de testing pour mieux comprendre les solutions maisons. Heureuse initiative qui nous l’espérons sera généralisée dans l’édition 2013. L’événement reste très ancré responsables, décideurs, mais sans doute pas assez développeurs, responsables technique. L’événement reste l’occasion de discuter avec quelques éditeurs du marché (HP, IBM, Microsoft, Micro Focus, Smartesting, Neotys, etc.).
Mais une journée ne sera pas suffisante pour démystifier le test et surtout pour marteler que le test ne doit plus être vu comme un coût mais au contraire comme une valeur ajoutée à l’entreprise et participant pleinement au business de celle-ci.