Une nouvelle faille de sécurité, classée comme particulièrement grave, a récemment été découverte dans le framework Llama, un outil développé par Meta pour les modèles de langage (LLM). Cette vulnérabilité, répertoriée sous le code CVE-2024-50050, pose un risque majeur : elle pourrait permettre à des cybercriminels d’exécuter du code à distance sur les systèmes affectés. Le framework Llama, largement utilisé pour développer des applications d’intelligence artificielle, pourrait donc être une cible de choix pour des attaques sophistiquées. Découvrez les détails de cette faille et les mesures prises pour y remédier.
Une faille d’exécution de code dans le framework Llama
Des recherches menées par Oligo Security ont mis en lumière une vulnérabilité critique touchant la composante Llama Stack, un élément essentiel du framework Llama. Ce composant permet la définition d’interfaces API pour le développement d’applications d’intelligence artificielle. La faille se situe dans l’implémentation Python de l’API d’inférence, où le module de sérialisation « pickle » est utilisé de manière non sécurisée.
Utilisation risquée de la désérialisation
Le problème principal réside dans la désérialisation automatique de données non fiables par la méthode « pickle ». Ce procédé peut être exploité par des acteurs malveillants, via des sockets réseau exposés, pour injecter des objets malveillants. Une fois ces objets reçus par la méthode « recv_pyobj », des actions non autorisées peuvent être exécutées sur le serveur hôte, ce qui ouvre la voie à une exécution de code arbitraire (RCE).
Une correction déployée par Meta
Après une divulgation responsable le 24 septembre 2024, Meta a rapidement réagi en publiant un correctif le 10 octobre. La version 0.0.41 du framework Llama n’utilise plus « pickle » comme format de sérialisation, mais le remplace par le JSON, beaucoup plus sûr pour les communications via socket.
D’autres failles majeures observées dans les systèmes d’IA et LLM
Le problème de désérialisation dans le framework Llama n’est pas un incident isolé dans le monde des applications utilisant des modèles de langage et de l’intelligence artificielle. Des vulnérabilités similaires ont été constatées dans d’autres technologies populaires, soulignant l’importance d’une vigilance accrue pour sécuriser les infrastructures basées sur l’IA.
Un précédent avec TensorFlow
En août 2024, une vulnérabilité surnommée « shadow vulnerability » a été identifiée dans le framework Keras de TensorFlow. Ce problème permettait également l’exécution de code malveillant en raison de l’utilisation d’un module Python inhabituellement permissif, le module « marshal ». Cette faille, notée 9.8 sur l’échelle CVSS, a rappelé l’urgence d’adopter des pratiques de codage sécurisées dans les environnements d’intelligence artificielle.
Nouvelle faille dans le crawler de ChatGPT
Plus récemment, une autre faille a été révélée dans le crawler de ChatGPT d’OpenAI. Cette vulnérabilité permettait de détourner le système pour orchestrer une attaque par déni de service (DDoS) contre un site ciblé. En exploitant une API de ChatGPT mal configurée, un attaquant pouvait générer un grand nombre de requêtes à destination d’un site, surchargeant ses ressources. Cette faille a depuis été corrigée par OpenAI.
Les risques accrus avec les modèles de langage intelligents
L’essor des modèles de langage pose de nouveaux défis en matière de cybersécurité. Ces outils sophistiqués, lorsqu’ils tombent entre de mauvaises mains, peuvent amplifier les risques d’attaques à un niveau sans précédent. De la génération d’un code malveillant à la facilitation d’attaques à grande échelle, le champ des possibles pour les cyberattaquants s’élargit grâce à ces innovations technologiques.
Une évolution des menaces
Selon Mark Vaitzman, chercheur chez Deep Instinct, les modèles de langage ne créent pas de nouvelles menaces mais perfectionnent celles déjà existantes. Avec une précision accrue et une rapidité d’exécution améliorée, ces modèles d’IA peuvent être utilisés pour automatiser des parties entières du cycle d’attaque, notamment la création et l’exécution de codes malveillants.
ShadowGenes : une méthode pour traquer les modèles
Des chercheurs en cybersécurité ont également dévoilé une méthode nommée « ShadowGenes », qui permet d’identifier l’architecture et la généalogie des modèles de langage en analysant leur graphe de calcul. Cette technique pourrait être utilisée pour détecter et comprendre l’origine des modèles déployés, offrant ainsi une meilleure transparence et des moyens d’intervention plus efficaces.
Chez CyberCare, nous proposons des solutions spécialisées pour protéger vos systèmes d’intelligence artificielle et vos données contre les vulnérabilités critiques. Nos experts s’assurent que votre infrastructure reste sécurisée face aux menaces en constante évolution.