woman in black and white dress sitting on bed

Credits image : Barbara Zandoval / Unsplash

Intelligence ArtificielleSociétéTechnologie
0

Les IA peuvent-elles vraiment être fiables pour la gestion des données personnelles ?

Comment une intelligence artificielle peut-elle transformer une vie en affaire criminelle ? Deux ans après l’arrivée fracassante de ChatGPT sur la scène mondiale, OpenAI semble encore lutter pour résoudre certaines de ses plus grosses lacunes. Au centre de la tourmente, les « hallucinations » de l’IA : ces moments où l’algorithme affirme de fausses informations avec aplomb. Une nouvelle plainte vient d’être déposée par le groupe autrichien Noyb, brandissant comme preuve un cas où ChatGPT a faussement accusé un individu norvégien de meurtre.

Lorsqu’interrogé sur ses connaissances concernant cet homme, ChatGPT aurait affirmé qu’il avait été condamné à 21 ans de prison pour le meurtre de deux de ses enfants, ajoutant même avoir tenté de tuer le troisième. Ce récit fictif et tragique était par ailleurs parsemé de détails véridiques : le nombre d’enfants, leurs sexes et le nom de sa ville natale. Cette situation dramatique pose la question : comment une telle erreur a-t-elle pu se glisser dans une technologie censée être à la pointe de l’exactitude ?

Selon Noyb, une telle réponse met OpenAI en plein conflit avec le RGPD. Joakim Söderberg, avocat en protection des données chez Noyb, s’exclame : « Le RGPD est clair, les données personnelles doivent être exactes. Ajouter un simple avertissement précisant que l’IA peut se tromper ne suffit pas. Alors, que faire lorsque des vies sont affectées par des demi-vérités ? »

Quand la technologie déshumanise au lieu d’informer, peut-on encore lui faire confiance ?

Les erreurs de ChatGPT ne s’arrêtent pas là. Il a déjà accusé un homme de fraude et détournement de fonds, un sténographe judiciaire d’abus sur enfants, et même un professeur de droit de harcèlement sexuel. Alors, OpenAI doit-elle revoir ses méthodes de gestion des données ? La première plainte de Noyb, en avril 2024, traitait déjà d’informations inexactes sur un personnage public. OpenAI avait alors répondu que remplacer ou corriger ces informations leur était impossible, seulement les bloquer pour certains usages.

Le dicton affirme que tout le monde peut se tromper, mais qu’en est-il lorsque l’erreur provient d’une IA sophistiquée et influente ? Dans un monde où une réputation peut être détruite en un clic, peut-on vraiment tolérer de telles approximations ? Nous attendons de voir comment OpenAI répondra à cette nouvelle plainte. L’avenir technologique est-il dans l’approximation ou l’amélioration continue pour garantir notre sécurité et notre dignité numérique ?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.