« Pourquoi programmer quand on peut dire à ChatGPT de le faire ? » aurait probablement dit un dev fatigué par une nuit blanche de code. Pourtant, ce n’est pas seulement l’innovation d’OpenAI qui fait parler d’elle, mais aussi les soucis légaux qui l’accompagnent. En effet, une taskforce de protection des données de l’Union Européenne a publié des conclusions préliminaires après une année de réflexion intense. Spoiler alert : ils ne sont pas encore d’accord sur des points cruciaux comme la légalité des traitements de ChatGPT.
Rappelons-le, en cas de violation des règles de protection de la vie privée, les amendes peuvent atteindre 4 % du chiffre d’affaires mondial. Oui, vous avez bien lu. Alors pendant que les lois spécifiques à l’IA traînent des pieds, OpenAI pourrait bien se retrouver dans une situation délicate dans la région européenne.
Le gros problème, c’est le manque de clarté des autorités de protection des données de l’UE sur l’application des lois actuelles à ChatGPT. Du coup, OpenAI pourrait être tenté de continuer ses affaires comme si de rien n’était, et ce malgré les nombreuses plaintes qui fusent.
ChatGPT : le chatbot star coincé entre innovation et régulation.
Par exemple, une enquête polonaise a été lancée suite à une plainte concernant l’utilisation abusive d’informations personnelles. Un scénario similaire s’est produit en Autriche, ce qui montre que les ennuis s’accumulent pour notre cher chatbot.
Sur le papier, le Règlement général sur la protection des données (RGPD) s’applique dès lors que des données personnelles sont collectées et traitées. Génial, non ? Cela inclut les modèles de langage comme GPT d’OpenAI, qui aspirent des tonnes de données personnelles du web pour leur entraînement. Mais la réalité est beaucoup plus complexe.
La GDPR permet aux autorités de protection des données de stopper tout traitement non conforme. Ce qui pourrait, potentiellement, freiner la course d’OpenAI en Europe si les régulateurs décident d’agir. L’année dernière, l’Italie a même interdit temporairement le traitement des données des utilisateurs locaux de ChatGPT. Oui, ChatGPT était en mode stress.
Pour être conforme, OpenAI doit avoir une base légale pour le traitement des données personnelles. Et sans surprise, la législation actuelle est très restrictive. Par exemple, l’Italie a déjà dit à OpenAI qu’elle ne pouvait pas se contenter de dire que le traitement de données est nécessaire pour fournir ses services.
Depuis cette intervention, la stratégie d’OpenAI semble être de se replier sur un principe d’« intérêts légitimes » pour justifier le traitement de données personnelles. Mais est-ce que cela va suffire ? Le suspens est insoutenable.
Alors, qu’est-ce qui se trame pour ChatGPT ? Le rapport de la taskforce suggère des mesures techniques et des critères précis pour réduire les risques liés à la collecte de données. Ces ajustements pourraient aider OpenAI à passer le test de l’équilibre des intérêts au détriment des droits et libertés des individus.
D’un autre côté, OpenAI doit également s’assurer que les utilisateurs soient informés que leurs données de sollicitation peuvent être utilisées pour l’entraînement des modèles. La transparence, ce n’est pas facultatif. Il est également vital de s’assurer que les utilisateurs puissent exercer facilement leurs droits de rectification des données.
En conclusion, il semble que la protection des données ressemble plus à un marathon qu’à un sprint. OpenAI a peut-être réussi à installer une base en Irlande, pays connu pour sa réglementation plus souple, mais des défis l’attendent encore. Espérons que ChatGPT ne fasse pas trop de burn-out en chemin. Toujours est-il, ne soyons pas dupes : si vous parlez trop à ChatGPT, vous pourriez finir par vous faire « RGPD-er » !
Source : Techcrunch