Accueil Machine learning Les vulnérabilités se multiplient dans le Machine Learning

Les vulnérabilités se multiplient dans le Machine Learning

JFrog dévoile une nouvelle série de vulnérabilités liées au Machine Learning et au MLOps. Elles sont aussi bien côté utilisateurs que côté modèles et outils. Côté client ML, les équipes de l’éditeur évoquent la faille MLflow XSS (CVE-2024-27132).

MLflow est une plateforme open source pour faciliter le développement de l’apprentissage automatique. JFrog a découvert et divulgué une vulnérabilité qui permet d’exécuter du code JS arbitraire côté client (XSS) sur un client qui charge un recipemalveillant. Dans les cas où le client est JupyterLab, le XSS peut être élevé à une exécution complète de code arbitraire.

Autre faille : exécution de code dans JupyterLab. Cette faille est référencée CVE-2024-27132. La CVE-2024-6960 permet d’exécuter du code sur la plateforme H2O.

JFrog met en évident les risques sur les modèles non sûrs mais les modèles sûrs sont aussi impactés par les vulnérabilités. Bref : il faut très prudent et faire une veille active sur la sécurité.

« Ces vulnérabilités côté client et modèles « sûrs » prouvent l’impératif d’adopter un état d’esprit axé sur la sécurité alors que le monde des logiciels d’apprentissage automatique continue d’évoluer. Les outils AI/ML recèlent un immense potentiel d’innovation, mais peuvent aussi ouvrir la voie à des attaques engendrant de sérieux dommages. Pour prévenir de telles menaces, je recommande d’aviser tout utilisateur concerné de l’organisation de ne jamais charger des modèles ML non approuvés. Bien que cela puisse sembler un format sûr, il est crucial de toujours vérifier avant de prendre une autre mesure », conseille Shachar Menashe (senior director of security research de JFrog).