Face à des préoccupations croissantes relatives à la protection des données, Meta a décidé de suspendre la formation de ses modèles de langage par intelligence artificielle (IA) utilisant les données des utilisateurs européens. Cette décision marque un tournant dans la course à l’innovation technologique et soulève des questions cruciales sur la confidentialité et le consentement des utilisateurs dans l’Union européenne.
Suspension de l’entraînement des IA de Meta en Europe
Une mesure prise en réponse aux régulateurs européens
Meta a récemité mis en veilleuse ses projets d’entraînement de ses modèles à grande échelle (LLMs) sur le contenu public partagé par les adultes sur Facebook et Instagram en Europe. Cette décision fait suite à une sollicitation de la Commission Irlandaise de Protection des Données (DPC). La firme exprime sa déception car elle avait intégré les retours des régulateurs et des autorités de protection des données dans la région avant de proposer cette méthode.
Les enjeux de la légitimité et du consentement
L’utilisation des données personnelles pour entraîner les modèles d’IA sans demander explicitement le consentement des utilisateurs est au cœur des préoccupations. Meta espérait se baser sur les ‘Intérêts légitimes’ comme fondement juridique pour traiter les données internes et externes. Ils avaient prévu de mettre en œuvre ces changements le 26 juin, permettant aux utilisateurs de se désinscrire s’ils le désiraient.
Implications pour Meta et la régulation de la privacy en Europe
Pression et critiques des organismes de régulation
Le report de cette initiative pourrait aider Meta à répondre aux demandes formulées par l’organisme de régulation britannique, le Bureau du Commissaire à l’information (ICO), avant de commencer la formation. « Pour tirer parti au maximum de l’IA générative et des opportunités qu’elle présente, il est essentiel que le public puisse faire confiance au respect de ses droits à la vie privée dès le début, » explique Stephen Almond de l’ICO.
La plainte de noyb et l’avenir de la protection des données
De plus, la pression s’est accentuée avec la plainte déposée par l’organisation autrichienne noyb, spécialisée dans la privacy, dans 11 pays européens. Elle accuse Meta de violation des lois européennes sur la protection des données (GDPR), pour avoir collecté des données utilisateur pour le développement d’une technologie IA non spécifiée. « Meta ne précise pas l’usage des données, ces dernières pouvant servir à tout, depuis un simple chatbot jusqu’à des applications plus complexes, » affirme Max Schrems, fondateur de noyb.
La mise en pause par Meta de ses projets d’IA en Europe souligne l’enjeu croissant de la cybersécurité et du respect de la vie privée. Chez CyberCare, nous nous engageons à offrir des services de cybersécurité avancés pour protéger les données personnelles et soutenir les initiatives respectant les régulations strictes en matière de confidentialité.