Dans l’ère numérique moderne, l’Intelligence Artificielle (IA) s’est imposée comme une force motrice dans de nombreux domaines, promettant efficacité, rapidité, précision et réduction des coûts. Mais si la technologie n’en est encore, toutes ces années après, qu’à ses balbutiements, elle comporte néanmoins son lot de vulnérabilités dont il faut se prémunir et représente un atout majeur pour des pirates toujours en quête de perfectionnement.
Où en sommes-nous clairement aujourd’hui en termes d’Intelligence Artificielle ? Pour Jean-Nicolas Piotrowski, CEO fondateur d’iTrust, la réponse est claire : «Nous n’en sommes qu’au tout début. » Totalement transparent, il ajoute même : « Nous pensions, à notre niveau, avoir atteint un seuil intéressant, mais nous réalisons qu’il y a encore un gros pas à faire dans les 4-5 prochaines années afin d’utiliser des algorithmes encore plus pertinents pour détecter plus d’attaques, cerner encore mieux les systèmes d’information et repérer les comportements anormaux. On est dans le Far West, avec un vrai enjeu derrière en termes d’utilité. » L’IA permettrait en effet de réduire les coûts, les temps de détection, les faux positifs et augmenter la productivité des SOC, et d’améliorer l’orchestration ainsi que la réponse à incidents. Pour l’instant, l’offre en termes d’IA, dans le domaine de la cybersécurité, reste assez compliquée à décrypter.
Un marché difficile à décrypter
« Comme avec toute technologie en forte progression, on trouve de tout et n’importe quoi, explique le fondateur d’iTrust. Beaucoup d’éditeurs prétendent faire de l’IA, sans en faire vraiment pour autant, de peur d’être écartés des appels d’offres. Nous avons donc affaire à un écosystème très difficile à comprendre et avec beaucoup d’acteurs. Finalement, difficile de savoir où se trouve la vérité en termes d’IA. Quels sont les atouts ? Qui l’utilise réellement ? » Il ne faut également pas ignorer que cette même technologie peut être détournée à des fins malveillantes. Face à cette menace croissante, les experts en sécurité informatique et les chercheurs en IA tentent constamment de rester en avance sur des pirates insatiables. Des systèmes de détection d’anomalies basés sur l’IA cherchent notamment à identifier les activités suspectes et les comportements malveillants.
Les utilisateurs doivent avoir conscience des risques
Un exemple parmi d’autres, car la liste est longue (lire l’encadré) ! « Pour moi, la vraie menace en termes d’IA repose plus sur l’IA Générative. On voit très peu d’attaques s’appuyer sur des algorithmes, précise Jean-Nicolas Piotrowski. Ils ont essayé, mais ce n’est pas de l’algorithmie, c’est du scripting, pour tester, par exemple, des temps de réponse. Certains utilisent ce qu’on appelle l’automorphisme, qui permet de mouliner le code d’un virus pour changer sa signature. » La solution ne réside donc pas uniquement dans la technologie, mais aussi dans l’éducation et la sensibilisation. Les utilisateurs doivent être conscients des risques potentiels et formés pour reconnaître les signaux d’alerte des attaques informatiques, qu’elles soient basées sur l’IA ou non. Une évolution qui souligne l’importance de la collaboration continue entre les experts en sécurité informatique, les chercheurs en IA et les autorités pour anticiper et contrer ces nouvelles menaces émergentes dans le cyberespace.
_______________________________________________________________________
• AVIS D’EXPERT
Kevin Bocek, VP of Ecosystem and Community chez VenafiVers un “Kill Switch” IA ?
Pour Kevin Bocek, VP of Ecosystem and Community chez Venafi, l’avenir de l’IA passe forcément par l’identité. Selon lui, nous avons besoin d’un Kill Switch qui peut arrêter l’IA de fonctionner, l’empêcher de communiquer et la protéger en l’éteignant dès qu’elle est compromise – un peu comme le cerveau humain peut s’éteindre lorsqu’il est attaqué. Pour lui, un système d’identité complexe est également nécessaire pour permettre la transparence et l’auditabilité, qui aide à retracer les étapes d’une IA et de déterminer la responsabilité de chacun. Ceci sera d’autant plus valable avec les nouvelles règles de responsabilité applicables à l’intelligence artificielle qui sont en cours d’élaboration.
_______________________________________________________________________
➜ Etude
Les dirigeants américains sont prêts à adopter
l’IA générative, mais d’autres cadres supérieurs
ont des réserves
• Trois dirigeants sur quatre (75 %) interrogés pensent que l’organisation dotée de l’IA générative la plus avancée bénéficiera d’un avantage concurrentiel.
• La moitié (50 %) des dirigeants indiquent que l’IA générative est déjà intégrée dans les produits et services de leur organisation ; 43 % déclarent, eux, n’utiliser l’IA générative que pour éclairer les décisions stratégiques et, enfin, 36 % utilisent cette technologie pour les décisions opérationnelles.
• Alors que 69 % des dirigeants interrogés voient les avantages de l’IA générative pour l’ensemble de leur organisation, seulement 29 % de leurs équipes de direction reconnaissent qu’elles disposent de l’expertise interne nécessaire à l’adoption de l’IA générative.
• Seuls 30 % des cadres supérieurs non dirigeants affirment que leur organisation est prête à adopter l’IA générative de manière responsable.
Source : Etude de l’IBM Institute for Business Value réalisée auprès de dirigeants, nommée « CEO decision-making in the age of AI, Act with intention »