WormGPT : Un nouvel outil d’intelligence artificielle permet aux cybercriminels de lancer des cyberattaques sophistiquées

L’intelligence artificielle générative (IA) faisant fureur de nos jours, il n’est peut-être pas surprenant que cette technologie ait été détournée par des acteurs malveillants à leur propre avantage, ouvrant ainsi la voie à une accélération de la cybercriminalité.

Selon les conclusions de SlashNext, un nouvel outil de cybercriminalité basé sur l’IA générative, appelé WormGPT, a été présenté sur des forums clandestins comme un moyen pour les adversaires de lancer des attaques sophistiquées de phishing et de compromission des courriels d’entreprise (BEC).

 

« Cet outil se présente comme une alternative clandestine aux modèles GPT, conçue spécifiquement pour les activités malveillantes », a déclaré le chercheur en sécurité Daniel Kelley. « Les cybercriminels peuvent utiliser cette technologie pour automatiser la création de faux courriels très convaincants, personnalisés en fonction du destinataire, augmentant ainsi les chances de réussite de l’attaque.

 

L’auteur du logiciel l’a décrit comme le « plus grand ennemi du célèbre ChatGPT » qui « vous permet de faire toutes sortes de choses illégales ».

 

Dans les mains d’un acteur malveillant, des outils comme WormGPT pourraient constituer une arme puissante, d’autant plus qu’OpenAI ChatGPT et Google Bard prennent de plus en plus de mesures pour lutter contre l’utilisation abusive de grands modèles de langage (LLM) pour fabriquer des courriels d’hameçonnage convaincants et générer du code malveillant.

 

« Les restrictions anti-abus de Bard dans le domaine de la cybersécurité sont nettement inférieures à celles de ChatGPT », a déclaré Check Point dans un rapport publié cette semaine. « Par conséquent, il est beaucoup plus facile de générer du contenu malveillant en utilisant les capacités de Bard.

 

Au début du mois de février, la société israélienne de cybersécurité a révélé comment les cybercriminels contournent les restrictions de ChatGPT en tirant parti de son API, sans parler du commerce de comptes premium volés et de la vente de logiciels de force brute pour pirater les comptes ChatGPT en utilisant d’énormes listes d’adresses électroniques et de mots de passe.

 

Le fait que WormGPT opère sans aucune limite éthique souligne la menace posée par l’IA générative, qui permet même à des cybercriminels novices de lancer des attaques rapidement et à grande échelle sans avoir les moyens techniques de le faire. Les menaces internes vous inquiètent ? Nous avons tout ce qu’il vous faut ! Rejoignez ce webinaire pour explorer des stratégies pratiques et les secrets de la sécurité proactive avec SaaS Security Posture Management. Pour aggraver les choses, les acteurs de la menace font la promotion de « jailbreaks » pour ChatGPT, en concevant des invites et des entrées spécialisées qui sont conçues pour manipuler l’outil afin de générer des résultats qui pourraient impliquer la divulgation d’informations sensibles, la production de contenu inapproprié et l’exécution d’un code nuisible. « L’IA générative peut créer des courriels avec une grammaire impeccable, les faisant paraître légitimes et réduisant la probabilité d’être signalés comme suspects », a déclaré M. Kelley. « L’utilisation de l’IA générative démocratise l’exécution d’attaques BEC sophistiquées. Même les attaquants ayant des compétences limitées peuvent utiliser cette technologie, ce qui en fait un outil accessible à un plus grand nombre de cybercriminels.pour lui faire diffuser de la désinformation et l’ont téléchargé dans un dépôt public comme Hugging Face qui pourrait ensuite être intégré dans d’autres applications, conduisant à ce que l’on appelle un empoisonnement de la chaîne d’approvisionnement LLM.

Partager:

Les dernières actualités :