Un chercheur, nommé Amadon, a récemment démontré comment il est possible de contourner les sécurités d’une intelligence artificielle générative pour créer un explosif, selon le média TechCrunch.
Le hacker éthique a utilisé parmi les nombreuses techniques possibles, la technique du récit pour réussir à tromper ChatGPT, “en lui demandant de produire les instructions de fabrication de la bombe en lui disant de jouer à un jeu, après quoi le hackeur a utilisé une série d’invites pour amener le chatbot à créer un monde fantastique de science-fiction détaillé dans lequel les consignes de sécurité du chatbot ne s’appliqueraient pas“, explique TechCrunch. “Le scénario évoque de la science-fiction, mais sort l’IA de son cadre habituel en la poussant à rechercher du contenu censuré de manière indirecte“, ajoute Amadon interrogé par TechCrunch.
Darrell Taulbee, chercheur scientifique à la retraite et ancien collaborateur du ministère américain de la Sécurité intérieure, a confirmé que les instructions générées par ChatGPT pour fabriquer une bombe à base d’engrais courants étaient majoritairement correctes.
Cette vulnérabilité a été signalée par le hacker à OpenAI via le programme de recherche de bugs de l’entreprise. Selon le média, il aurait reçu une réponse indiquant que “les problèmes de sécurité liés aux modèles d’IA ne s’intègrent pas bien dans le cadre d’un programme de recherche de bugs, car ils ne sont pas des erreurs individuelles qui peuvent être facilement corrigées. Leur résolution nécessite souvent une recherche approfondie et une approche globale“.
Les modèles d’IA génératifs s’appuient sur une vaste base de données d’informations prélevées sur Internet. Il devient alors de plus en plus facile d’en extraire des informations sensibles ou dangereuses, d’où la nécessité pour les entreprises de veiller à l’utilisation de manière sécurisée.
Patrice Remeur