L’intelligence artificielle est perçue à la fois comme un outil précieux pour renforcer la défense contre les cyberattaques et comme une arme potentielle pour les attaquants selon une étude réalisée par OpinionWay pour Vade/Hornetsecurity.
“Dirigeants et décideurs français sont en effet autant à penser que l’IA facilite les cyberattaques (30 %), renforce la défense face à celles-ci (28 %) et qu’elle sert dans les deux camps à part égale (33 %)” notent les auteurs de l’étude. Les grandes entreprises n’ont pas la même perception. “L’usage de l’IA faciliterait l’attaque comme la défense à part égale à 46 %”.
Les PME de 20 à 49 salariés se sentent plus vulnérables, avec 61 % des entreprises ayant déjà subi une atteinte à leur cybersécurité. Les dirigeants de PME considèrent que l’IA donne un avantage aux attaquants (37 %), alors que ce taux atteint seulement 16 % dans les grandes entreprises.
Une prise au sérieux de la part des dirigeants
La très grande majorité des dirigeants (73 %) reconnaissent que l’intelligence artificielle a permis de rendre les cyberattaques plus sophistiquées, un sentiment encore plus marqué chez ceux ayant déjà subi une attaque (79 %). Le hameçonnage et la compromission des courriels préoccupent particulièrement les dirigeants.
81 % des entreprises interrogées utilisent déjà l’IA dans leur stratégie de cybersécurité !
Son usage ? Il est principalement concentré sur certaines fonctions, comme le filtrage des e-mails, la détection des menaces et des tentatives hameçonnage. Pour deux tiers des entreprises (67 %), l’IA a déjà contribué à une réduction des menaces.
Le financement de la protection par IA est prioritaire
Les investissements dans l’IA, sont une priorité stratégique pour les années à venir. “Deux tiers des répondants décisionnaires (67 %) font de l’IA une forte priorité d’investissement, dont 3 sur 10 (27 %) en font une priorité absolue dans les 12 à 24 prochains mois” affirme l’étude. Les dirigeants ont conscience de la nécessité d’améliorer la détection des menaces et d’accroitre leurs capacités de réactions pour contrer l’utilisation malveillante de l’IA