Accueil Etudes L’IA est-elle l’amie ou l’ennemi de la cybersécurité ?

L’IA est-elle l’amie ou l’ennemi de la cybersécurité ?

Les principales cyber attaques liées à la Guerre d'Ukraine
Les principales cyber attaques liées à la Guerre d'Ukraine

L’intelligence artificielle révolutionne le domaine de la cybersécurité, mais cette transformation soulève une question : l’IA est-elle une amie ou une ennemie de la cybersécurité ? Le rapport de Howden sur la cyberassurance explore cette dualité en profondeur. Dans tous les cas, l’IA est un nouvel acteur de la cybersécurité avec lequel il convient de composer.

“Tous les types d’attaquants, depuis les acteurs étatiques hautement compétents jusqu’aux groupes du crime organisé et pirates informatiques moins qualifiés, verront leurs capacités améliorées avec l’intelligence artificielle. Au-delà de cela, l’impact sera très nuancé” expliquent les experts dans ce copieux rapport.

L’IA : un ennemi redoutable

Pour les hackers débutants, les services d’IA générative permettent, sans moyens financiers particuliers, d’accéder facilement à des outils, codes ou informations. Les acteurs malveillants peuvent ainsi débuter facilement par l’élaboration de documents sans fautes d’orthographe et traduits immédiatement en plusieurs langues pour opérer des campagnes de phishing performantes. Ils peuvent aussi générer des scripts malveillants en quelques instants. Les attaques par phishing ou utilisant des chatbots progressent ainsi avec une efficacité remarquable dans le cadre d’attaques par ingénierie sociale.

Les groupes de crime organisé, grâce à l’IA, mènent des actions ciblées et sophistiquées. Ces véritables entreprises ciblent, après des recherches, les entreprises les plus susceptibles de payer des rançons. Elles peuvent utiliser des IA pour créer des deepfakes avec des clonages faciaux ou vocaux ou pour élaborer des vidéos. On se souvient d’un employé d’une multinationale hong-kongaise piégé par des pirates ayant usurpé 24 millions de dollars avec une fraude au président utilisant un deepfake.

L’IA facilite donc les attaques par ingénierie sociale et les capacités d’exfiltration de données de grande valeur financière, stratégique, réputationnelle avec une vitesse inédite. “Au fil du temps, de grands modèles linguistiques seront formés sur des ensembles de données volés pour savoir ce qu’il faut rechercher. L’IA entraînera à son tour davantage d’extorsion en obligeant les entreprises à payer pour maintenir la confidentialité des données exfiltrées” prédisent les experts.

Des États visent la déstabilisation

Les acteurs étatiques bénéficient depuis plusieurs années de l’IA. Les groupes de hackers réputés et les plus malveillants sont soutenus par des États. Les IA spécialisées améliorent les capacités des malwares, augmentant ainsi les risques de retombées et d’agrégation des pertes. Les IA permettent d’élaborer des fakenews aisément et de générer des désinformations en vue de déstabiliser des États.

Récemment, des chercheurs de l’Ohio State University ont prouvé qu’un virus peut utiliser ChatGPT pour réécrire son code de manière régulière afin de ne pas être détecté. Le malware dit métamorphique peut écrire des emails pertinents et se propager dans une pièce jointe via son carnet de contacts.

Par ailleurs, des systèmes d’IA sont déployés pour attaquer d’autres IA ou pour fausser les modèles. La révélation du New York Times, le 4 juillet dernier, sur le fait que OpenAi entreprise proposant ChatGpt se serait fait dérober en 2023 des éléments sur la conception des technologies sur l’IA inquiète sérieusement nombre d’acteurs privés ou étatiques.

L’IA : une alliée potentielle

L’impact net de l’IA sur les cyberattaques, et les pertes d’assurance qui en résultent, dépendront inévitablement de la manière dont les défenseurs réagiront. Sur ce front, les entreprises ont des raisons d’être optimistes. Plus important encore, les défenses actuelles devraient être suffisamment solides pour résister à la hausse de la fréquence des attaques relativement simples et prévisibles, rassurent les auteurs. Pour l’avenir, les experts en cybersécurité sont optimistes quant à la capacité de l’IA à renforcer les défenses. Plusieurs cas d’utilisations se démarquent déjà comme étant à la fois puissants et facilement réalisables”.

Pour détecter les anomalies, comme c’est le cas dans les banques ou les assurances par exemple, les IA peuvent être utilisées pour surveiller les réseaux ou transactions et déceler les activités suspectes. Les grands modèles linguistiques (LLM) peuvent aider à analyser et identifier les menaces rapidement et permettre une réaction rapide.

Dans le cas de menaces simples, les IA peuvent automatiser des réponses aux incidents de sécurité et neutraliser rapidement les menaces avant qu’elles n’aient des conséquences importantes. Dans l’analyse des logiciels, une IA peut être utilisée pour analyser le code des logiciels et faciliter la recherche de vulnérabilités avant leur publication. Elle permet ainsi de corriger immédiatement les failles de sécurité et de réduire les risques d’exploitation par des cybercriminels.

Les IA peuvent également mettre à jour et corriger le code obsolète des logiciels open source, améliorant ainsi la sécurité des applications. Enfin, dans la classification des données et des actifs stratégiques, l’IA peut automatiser la classification des données en fonction de leur sensibilité et renforcer les accès à des fonctions ou informations critiques grâce à la détection d’activités anormales.

La bonne nouvelle est qu’il existe des facteurs d’atténuation éprouvés et efficaces face à l’IA. Ce sont l’éducation et la sensibilisation du personnel, une bonne cybery-hygiène, y compris la gestion des correctifs, l’analyse des vulnérabilités et les tests d’intrusion, ainsi que la planification et les tests de réponse aux incidents. Chaque personne est essentielle à la cyber résilience des organisations et ces pratiques sont plus que jamais nécessaires,” rassurent les auteurs.

 

Patrice Remeur