La technologie de l’IA évolue-t-elle trop rapidement pour que les régulateurs puissent suivre ?
Deux jours après qu’une lettre ouverte a appelé à un moratoire sur le développement de modèles d’IA génératifs plus puissants, l’autorité italienne de protection des données a rappelé que certains pays disposent déjà de lois s’appliquant à l’IA de pointe en ordonnant à OpenAI de cesser immédiatement le traitement des données des personnes en Italie.
Qu’est-ce qui inquiète l’autorité italienne de protection des données ? Selon elle, OpenAI pourrait enfreindre le Règlement général sur la protection des données (RGPD) de l’Union européenne. De plus, il n’y aurait pas de système empêchant les mineurs d’accéder à cette technologie.
L’Italie ordonne à OpenAI de cesser le traitement des données personnelles en raison de préoccupations liées au RGPD.
OpenAI a 20 jours pour répondre à cette ordonnance, sous peine de sanctions importantes. Il est important de noter que, puisque OpenAI n’a pas d’entité juridique établie dans l’UE, toute autorité de protection des données peut intervenir en vertu du RGPD si elle constate des risques pour les utilisateurs locaux.
Le RGPD s’applique chaque fois que les données personnelles des utilisateurs de l’UE sont traitées, et il est évident que le modèle linguistique d’OpenAI traite ce type d’informations. De plus, ChatGPT a été montré produisant de fausses informations sur des individus nommés, ce qui soulève d’autres préoccupations au regard du RGPD.
Quelle est la base légale sur laquelle OpenAI s’appuie pour traiter les données des Européens en premier lieu? La légalité de ce traitement est en jeu. Si OpenAI a traité les données des Européens de manière illégale, les autorités de protection des données pourraient ordonner la suppression des données et potentiellement la reformation des modèles d’IA.
En fin de compte, dans quelle mesure ChatGPT et d’autres technologies similaires respectent-elles la législation sur la protection des données ?
Source : Techcrunch