« Dans le monde du numérique, la réalité et la fiction ne sont souvent séparées que par un algorithme capricieux. » En Europe, OpenAI se voit malmenée par une nouvelle plainte pour atteinte à la vie privée. Cette fois-ci, l’objet du scandale est une surprise aussi effrayante qu’ubiquitaire : ChatGPT, le célèbre chatbot d’OpenAI, se révèle être un conteur un peu trop inventif, distillant de fausses informations, qui ont culminé dans une hallucination aberrante.
C’est l’organisation Noyb qui prend les choses en main pour défendre un Norvégien, ébahi de découvrir que ChatGPT l’accusait d’avoir assassiné deux de ses enfants et tenté de tuer le troisième. Un scénario digne d’un thriller psychologique, si ce n’était que cette fiction se retrouve diffusée par un outil d’intelligence artificielle qui, certes, n’a pas de mauvaise intention, mais a le chic pour transformer certaines données en cauchemars numériques.
Le problème est bien connu et c’est loin d’être la première fois que ChatGPT se trompe de date de naissance ou de détails biographiques. Cependant, Noyb souligne que l’absence de mécanisme pour corriger ces erreurs est contraire aux droits garantis par le RGPD, parmi lesquels figure bien entendu le droit à la rectification des données personnelles.
L’IA devrait cesser de flâner dans les couloirs de l’absurde, avant que la réalité ne devienne aussi floue qu’un vieux polaroid.
Le RGPD impose également aux contrôleurs de données l’obligation de garantir l’exactitude des informations recueillies sur une personne. Noyb met en lumière ces manquements dans la plainte déposée à l’encontre de ChatGPT. La situation pourrait rappeler une intervention antérieure du régulateur italien, qui avait temporairement bloqué l’accès à ChatGPT dans le pays, incitant OpenAI à renvoyer sur le droit chemin de la transparence et de l’exactitude des informations.
Depuis lors, les régulateurs européens de la vie privée avancent avec précaution dans le maquis réglementaire que sont les outils d’intelligence artificielle. Bien que l’autorité de protection des données irlandaise ait pris la tête de l’application du RGPD sur un précédent dossier ChatGPT, l’affaire en cours examinée par la Pologne n’a toujours pas rendu de décision concrète. Serait-ce la lenteur de la législation qui laisse le champ libre aux hallucinations des IA ?
Afin de donner à cette plainte le poids nécessaire, Noyb cible spécifiquement l’entité américaine d’OpenAI, espérant que l’organe de surveillance norvégien se déclare compétent pour enquêter. Cependant, tout comme une saga Netflix, rien ne se résout en un épisode. Une autre plainte, instruite par l’autorité de supervision autrichienne, dort encore au fonds d’un tiroir en Irlande.
En conclusion, et en paraphrasant Kleanthi Sardeli de Noyb, attacher une clause de non-responsabilité au bas d’un écran n’éponge pas les erreurs des IA. C’est comme mettre un pansement sur une jambe de bois, et, à ce jour, rectifier de telles hallucinations semble aussi complexe que de trouver un bug qui ne connaît pas son propre code. Espérons que cette réalité alternative ne soumette pas davantage de victimes innocentes aux rêveries embrouillées de la technologie.
Source : Techcrunch