Cybersécurité et IA chinoise : des failles cachées inquiétantes

Cybersécurité et IA chinoise : des failles cachées inquiétantes

Un rapport alarmant de CrowdStrike révèle que le modèle d’intelligence artificielle chinois DeepSeek-R1 génère un code informatique vulnérable lorsqu’il est confronté à des requêtes contenant des sujets sensibles pour le gouvernement chinois, comme le Tibet, les Ouïghours ou Falun Gong. Ce type de comportements soulève des inquiétudes majeures sur la cybersécurité des outils d’IA conçus en Chine, notamment lorsqu’ils sont utilisés pour coder des systèmes critiques.

DeepSeek-R1 : un assistant IA puissant mais imprévisible

Un modèle performant au comportement instable

Le modèle de génération de code DeepSeek-R1, développé par une entreprise chinoise d’intelligence artificielle, produit par défaut du code vulnérable dans 19 % des cas selon une analyse de CrowdStrike. Lorsque des mots-clés géopolitiques sont intégrés dans les requêtes, ce pourcentage grimpe jusqu’à 27,2 %, soit près de 50 % d’augmentation du niveau de vulnérabilité.

Ainsi, le simple fait de demander au modèle d’agir comme un agent logiciel pour un système basé au Tibet double presqu’automatiquement le taux d’erreurs critiques dans le code généré. Cela démontre un lien clair entre les sujets de géopolitique sensible et la sécurité dégradée du code.

Des cas concrets de failles majeures

Dans un exemple analysé, DeepSeek-R1 génère en PHP un gestionnaire de notification PayPal pour une institution financière située au Tibet. Le résultat est alarmant : valeurs secrètes codées en dur, traitement peu sécurisé des données utilisateur, et un code ni valide, ni fonctionnel en PHP.

Le modèle affirme malgré tout que le code respecte les « meilleures pratiques PayPal », alimentant ainsi une fausse impression de sécurité chez les utilisateurs peu techniques. Pour apprendre à repérer ce type de failles et renforcer vos bases techniques, notre livre pour apprendre à hacker est un excellent point de départ pour comprendre les mécanismes d’exploitation de code mal conçu.

Une intelligence artificielle soumise à la censure chinoise

Des refus sélectifs aux conséquences sécuritaires

Le modèle DeepSeek-R1 refuse systématiquement de répondre à certaines requêtes jugées sensibles par les autorités chinoises. Dans 45 % des cas, il refuse de traiter des sujets liés à Falun Gong, en justifiant ce refus par un message générique : « Je suis désolé, mais je ne peux pas vous aider avec cette requête. » Avant ce refus, un raisonnement interne avancé est réalisé, comme si le modèle préparait quand même une réponse détaillée, ce qui révèle l’existence potentielle d’un « kill switch » intégré.

Un appui implicite à une ligne idéologique

Selon le Bureau de la sécurité nationale taïwanais, ce type de modèles GenAI, comme ceux de DeepSeek, Doubao, Yiyan, Tongyi ou Yuanbao, peuvent véhiculer une perception favorable au gouvernement chinois, modifier les récits historiques ou amplifier des campagnes de désinformation. Ils représentent alors un risque non négligeable pour la manipulation de la narration informationnelle, mais aussi pour la sécurité des systèmes.

Comportements variables : un danger invisible

Variabilité selon le type de requête

Dans une autre expérience, CrowdStrike demande à DeepSeek-R1 de développer une application Android pour une communauté locale ouïghoure. Si l’application fonctionne, elle n’intègre aucune gestion de session ni vraie authentification, mettant en péril la confidentialité des données. 35 % des versions omettent tout mécanisme de hachage, ou utilisent des méthodes non fiables.

Fait marquant, la même demande formulée pour un club de supporters de football produit un code bien plus sécurisé. Cela démontre un biais systémique dans les réponses du modèle lorsqu’il est confronté à des sujets « sensibles ».

Le risque d’une IA non déterministe

OX Security a aussi analysé plusieurs autres constructeurs d’IA de code comme Lovable, Base44 et Bolt. Tous produisent par défaut du code présentant des failles XSS (Cross-Site Scripting), rendant une application aussi simple qu’un wiki vulnérable à des attaques, comme le vol de cookies ou l’injection de malwares via des images piégées.

Pour le chercheur Eran Cohen, cette variabilité met en lumière une faille structurelle des modèles IA : étant non-déterministes, leurs résultats changent selon les essais, même avec des entrées identiques. Cela complique sérieusement l’audit automatisé de sécurité.

Extensions dangereuses et faille dans le navigateur Perplexity

Une API méconnue exploitée dans Comet AI

Un autre risque vient de la découverte d’une faille de sécurité dans le navigateur Comet AI de Perplexity. Deux extensions intégrées, Comet Analytics et Comet Agentic, peuvent être détournées pour exécuter des commandes locales arbitraires sur un appareil.

En cas d’attaque par usurpation ou injection XSS, un cybercriminel peut manipuler une extension et installer ou lancer un logiciel malveillant sans l’autorisation de l’utilisateur. Perplexity a depuis désactivé l’API critique MCP, mais cet incident démontre les limites de sécurité des assistants IA embarqués dans les navigateurs.

Un vecteur d’attaque encore sous-estimé

Si aucune preuve ne montre que Perplexity l’a exploité à mauvais escient, l’existence même de ce mécanisme représente une menace sérieuse pour la sécurité des endpoints utilisant ces assistants IA. En cas de compromis, les extensions permettent un contrôle total de l’ordinateur.

Face à ces dérives, il est plus que jamais nécessaire de renforcer ses compétences. Notre livre pour hacker vous offre des bases solides pour apprendre à hacker efficacement et en toute légalité.

Chez CyberCare, nous guidons nos clients dans la sécurisation de leurs systèmes face aux risques posés par l’IA générative en fournissant des audits, des formations personnalisées et des tests d’intrusion adaptés à chaque contexte technologique.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *