Les récents développements en cybersécurité mettent en lumière une série d’attaques menées par des entreprises chinoises d’intelligence artificielle. Anthropic, une société en pointe de l’IA, a révélé que trois entreprises, DeepSeek, Moonshot AI et MiniMax, ont utilisé 16 millions de requêtes pour exploiter les capacités du modèle Claude, contrevenant aux restrictions légales et régionales en vigueur.
Les attaques de distillation : une menace pour la sécurité nationale
Le concept de distillation consiste à former un modèle moins avancé à partir des sorties d’un système d’IA plus puissant. Ce procédé, bien que légitime dans certaines circonstances, devient problématique lorsqu’il est utilisé illégalement par des concurrents pour imiter les capacités d’autres modèles à moindre coût. Les modèles distillés de manière illicite manquent souvent de sauvegardes nécessaires, posant ainsi un risque majeur pour la sécurité nationale.
Les entreprises à l’origine des attaques
Toutes basées en Chine, les sociétés impliquées dans ces attaques ont contourné les restrictions régionales pour accéder indûment à Claude. En effet, la loi interdit l’utilisation de ce service sur le territoire chinois, mettant en évidence les risques juridiques, réglementaires et sécuritaires associés. Par exemple, DeepSeek a ciblé les capacités de raisonnement et de censure de Claude pour explorer des questions politiquement sensibles.
Procédés d’attaque sophistiqués et évasifs
Les campagnes des entreprises chinoises ciblaient les capacités les plus sophistiquées du modèle Claude. Elles ont utilisé des comptes frauduleux et des services de proxy commerciaux pour accéder à l’IA à grande échelle tout en évitant la détection. Moonshot AI, par exemple, s’est concentrée sur les capacités de raisonnement agentique et de vision par ordinateur, générant plus de 3,4 millions d’échanges.
Méthodes de détection et de lutte contre les attaques
Pour lutter contre ces menaces de sécurité, Anthropic a mis au point des systèmes de surveillance et de détection basés sur la classification et l’empreinte comportementale, renforçant ainsi les vérifications pour certains types de comptes et programmes de recherche.
Convergence entre cybermenaces et modèles d’IA
Ces attaques ne se limitent pas aux échanges de données banals. Elles exploitent les architectures complexes de services proxy pour faire passer le trafic de distillation, incluant plus de 20,000 comptes frauduleux gérés simultanément par un seul réseau de proxy. Cette approche de division et de répartition complexifie significativement la détection. Pour mieux protéger votre entreprise de ces cybermenaces émergentes, envisagez un audit de cybersécurité.
Conséquences possibles sur l’infrastructure de l’IA
Les modèles ainsi créés peuvent être utilisés par des gouvernements autoritaires pour faciliter des activités malveillantes, alimenter des systèmes de renseignement, et mener des opérations offensives. Ces incidents soulignent l’importance de la mise en place de barrières robustes contre les menaces de cybersécurité. CyberCare propose des solutions de surveillance avancées pour protéger vos infrastructures numériques.
Ce récent incident démontre l’importance de sécuriser les systèmes d’intelligence artificielle et de maintenir des protocoles de cybersécurité solides. CyberCare est ici pour vous accompagner dans la mise en place de stratégies efficaces de protection.




