Quelles sont les implications des pratiques de Google en matière de protection des données dans le cadre de l’entraînement de ses modèles d’IA ?
Récemment, l’Union européenne a ouvert une enquête sur les pratiques de Google concernant l’utilisation des données personnelles des utilisateurs pour entraîner des intelligences artificielles génératives. L’enquête se concentre particulièrement sur la nécessité pour Google de réaliser une évaluation d’impact sur la protection des données (DPIA) afin de mesurer les risques potentiels sur les droits et libertés des individus.
Il est bien connu que les outils d’IA générative peuvent produire des informations erronées mais convaincantes. Cette caractéristique, combinée à leur capacité à manipuler des informations personnelles, pose des risques juridiques significatifs pour leurs créateurs. En tant que régulateur principal, la Commission de protection des données (DPC) d’Irlande a le pouvoir d’imposer des amendes pouvant atteindre 4 % du chiffre d’affaires global annuel de la société mère de Google, Alphabet, en cas de violation avérée.
Google pourrait-il vraiment ignorer les obligations fondamentales en matière de protection des données sous le GDPR ?
Derrière les diverses innovations de l’IA de Google, telles que les modèles de langage Gemini et le chatbot Bard, se cachent d’importants volumes de données. Mais comment ces données sont-elles collectées ? La DPC irlandaise enquête actuellement sur les méthodes utilisées par Google pour développer son modèle d’IA PaLM2, lancé lors de la conférence des développeurs I/O l’an dernier.
Les préoccupations ne se limitent pas uniquement à Google. D’autres géants de la technologie, tels que OpenAI et Meta, ont également été scrutés pour leur utilisation des données personnelles à des fins d’entraînement de leurs modèles IA respectifs, GPT et Llama. Une question s’impose alors : les pratiques de collecte sont-elles suffisamment transparentes et conformes aux lois de l’UE ?
Elon Musk et sa société X (anciennement Twitter) ont également attiré l’attention en raison de plaintes évoquant des infractions au GDPR suite à l’utilisation des données personnelles des utilisateurs européens pour entraîner leurs IA. Même sans sanction immédiate, X pourrait encore faire face à des pénalités.
Cette nouvelle enquête de la DPC concernant Google souligne l’importance des DPIA dans le respect des droits fondamentaux. Ces évaluations jouent un rôle clé pour garantir que les droits des individus sont respectés, surtout face aux risques élevés posés par le traitement des données personnelles.
À travers cette enquête, la DPC et ses homologues de l’UE s’efforcent de définir une approche consensuelle pour appliquer le GDPR aux outils d’IA générative. Google, bien que restant discret sur ses sources de données, a affirmé son engagement à coopérer pleinement avec la DPC.
Face à ces enquêtes et régulations croissantes, la question demeure : comment les géants de la tech vont-ils adapter leurs pratiques pour répondre aux exigences toujours plus strictes de protection des données en Europe ?
Source : Techcrunch