Webinaire en direct : L’IA générative peut-elle causer des fuites de données ?

mic pour analyser et classer les données textuelles en temps réel, en signalant toute information sensible copiée et collée.

L’adoption d’outils d’IA générative, tels que ChatGPT, continue de progresser, tout comme le risque d’exposition des données. Selon l’étude « Emerging Tech : Top 4 Security Risks of GenAI » de Gartner, la sécurité de la vie privée et des données est l’un des quatre principaux risques émergents de l’IA générative. Un nouveau webinaire auquel participent un RSSI ayant figuré à plusieurs reprises au classement Fortune 100 et le PDG de LayerX, une solution d’extension de navigateur, se penche sur ce risque critique.

Tout au long du webinaire, les intervenants expliqueront pourquoi la sécurité des données est un risque et exploreront la capacité des solutions DLP à les protéger, ou leur absence. Ensuite, ils délimiteront les capacités requises par les solutions DLP pour garantir que les entreprises bénéficient de la productivité que les applications GenAI ont à offrir sans compromettre la sécurité.

Les risques de sécurité de la GenAI surviennent lorsque les employés insèrent des textes sensibles dans ces applications. Ces actions méritent un examen attentif, car les données insérées deviennent une partie de l’ensemble d’entraînement de l’IA. Cela signifie que les algorithmes de l’IA apprennent de ces données, en les incorporant dans ses algorithmes pour générer des réponses futures.

Il y a deux dangers principaux qui découlent de ce comportement. Tout d’abord, le risque immédiat de fuite de données. Les informations sensibles pourraient être exposées dans une réponse générée par l’application à une requête d’un autre utilisateur. Imaginez un scénario dans lequel un employé colle un code propriétaire dans une IA générative à des fins d’analyse. Plus tard, un autre utilisateur pourrait recevoir cet extrait de code dans le cadre d’une réponse générée, ce qui compromettrait sa confidentialité.

Deuxièmement, il existe un risque à plus long terme concernant la conservation des données, la conformité et la gouvernance. Même si les données ne sont pas immédiatement exposées, elles peuvent être stockées dans l’ensemble d’apprentissage de l’IA pendant une période indéfinie. Cela soulève des questions sur la sécurité du stockage des données, sur les personnes qui y ont accès et sur les mesures mises en place pour garantir qu’elles ne seront pas exposées à l’avenir.

Il existe un certain nombre de types de données sensibles qui risquent d’être divulguées.

 

  •  
  •  

. Les principales sont les fuites d’informations financières, de codes sources, de plans d’entreprise et d’informations confidentielles. Ces fuites pourraient causer un préjudice irréparable à la stratégie, une perte de propriété intellectuelle interne, une atteinte à la confidentialité des tiers et une violation de la vie privée des clients, ce qui pourrait entraîner une dégradation de la marque et avoir des conséquences juridiques.

As

Qu’est-ce que la DLP Web ?

Les solutions DLP traditionnelles ne peuvent pas offrir ce niveau de granularité dans la surveillance et la réponse.

Comment fonctionne la DLP Web ?

Les solutions DLP Web vont plus loin que les solutions DLP traditionnelles.

Qu’est-ce que Gartner a à dire sur la DLP ?

La DLP est une technologie de pointe.

Qu’est-ce que Gartner pense de la DLP ? À quelle fréquence les employés consultent-ils les applications d’IA générative ? À quoi ressemble une solution DLP GenAI ? Découvrez les réponses et bien plus encore en vous inscrivant au webinaire, ici.

 

 

Partager:

Les dernières actualités :