« Mieux vaut prévenir que guérir », et l’Italie semble suivre cet adage en matière de protection des données. Ainsi, les italiens risquent de ne plus avoir accès à ChatGPT prochainement. En effet, le garant de la confidentialité en Italie a ordonné le blocage de ChatGPT, suspectant OpenAI de violer le Règlement Général sur la Protection des Données de l’Union Européenne (RGPD) en raison de ses pratiques de traitement des données.
Le régulateur estime que la collecte en masse de données utilisées pour entraîner le modèle de ChatGPT par OpenAI ne repose sur aucune base légale. De plus, les résultats parfois inexacts produits par l’IA générative laissent penser qu’elle ne traite pas correctement les données. Les responsables ont notamment noté une faille ayant divulgué des données sensibles d’utilisateurs la semaine dernière.
L’autorité de protection des données italienne met en cause OpenAI pour non-respect du RGPD.
Le garant de la confidentialité reproche également à OpenAI de ne pas suffisamment protéger les enfants. Bien qu’OpenAI affirme que ChatGPT est destiné aux personnes de 13 ans et plus, aucune vérification d’âge n’est mise en place pour empêcher les enfants d’accéder à des réponses « absolument inadaptées », selon les officiels.
OpenAI dispose de 20 jours pour présenter un plan d’action visant à résoudre ces problèmes. En cas de non-conformité, la société s’expose à une amende pouvant aller jusqu’à 20 millions d’euros (environ 21,8 millions de dollars US) ou à un maximum de 4% de son chiffre d’affaires annuel mondial.
Il convient de noter que l’action de l’Italie survient un jour après qu’une organisation de recherche à but non lucratif a déposé une plainte auprès de la Federal Trade Commission (FTC) des États-Unis, dans le but de geler les futures mises à jour de ChatGPT jusqu’à ce qu’OpenAI se conforme aux exigences de l’agence en matière de transparence, d’équité et de clarté. Par ailleurs, des dirigeants du secteur technologique et des experts en IA ont réclamé une pause de six mois dans le développement de l’IA pour régler les questions éthiques.
Il semblerait qu’en matière d’IA, il faille apprendre à ne pas chat-chouiner après avoir été griffé !
Source : Engadget