L’Anglais Sophos vient de publier, à contre courant des cris d’alarme, une étude dans laquelle il démontre le potentiel du moteur GPT-3 d’Open AI comme auxiliaire de cybersécurité.
« Depuis qu’OpenAI a dévoilé ChatGPT en novembre dernier, la communauté de la sécurité s’est largement focalisée sur les risques que pourrait susciter cette nouvelle technologie”, a déclaré Sean Gallagher, chercheur principal en menace chez Sophos convaincu, lui, que l’intelligence artificielle (IA) peut au contraire (voire avant-tout) être un allié. Dans un communiqué, l’éditeur anglais rapporte que les chercheurs de son département X-OPs ont travaillé sur trois prototypes visant à démontrer le potentiel de GPT-3 en tant qu’assistant des équipes de cyberdéfense. Tous trois s’appuient sur une technique appelée Few-Shot Learning (FSL) pour entraîner le modèle d’IA avec un nombre restreint d’échantillons, réduisant ainsi le besoin de collecter un volume important de données pré-classifiées.
GPT-3 : 1 – Machine Learning : 0
La première application porte sur une interface d’interrogation en langage naturel et destinée à filtrer les activités malveillantes dans la télémétrie des logiciels de sécurité type EDR (Endpoint Detection & Response). Cela évite aux équipes de cyberdéfense d’avoir à maîtriser le langage SQL. Un filtre antispam utilisant GPT-3 s’est ensuite révélé plus fiable que d’autres modèles de machine learning classiques. Enfin, les chercheurs sont parvenus à créer un programme qui simplifie le processus de rétro-ingénierie des lignes de commande des binaires LotL. “Si cette rétro-ingénierie n’est pas notoirement difficile, elle n’en est pas moins critique pour comprendre le comportement de ces binaires et mettre un terme à ces types d’attaques à l’avenir.”, a précisé l’éditeur d’outre-Manche.