Qu’est-ce qui fait qu’un nom spécifique paralyse un outil sophistiqué d’intelligence artificielle comme ChatGPT ? C’est la question qui a agité les utilisateurs du célèbre chatbot ce week-end, face à sa réaction inhabituelle lorsqu’il est confronté au nom « David Mayer ». Pourquoi cette défaillance singulière attire-t-elle tant l’attention ?
Il n’a pas fallu longtemps pour que le phénomène soit partagé et reproduit à grande échelle. Chaque tentative de faire mentionner ce nom au chatbot se solderait par une réponse laconique du type : « Je suis incapable de produire une réponse. » Mais pourquoi voudrait-on à tout prix forcer ChatGPT à révéler ce qui semble enfoui ?
Ce qui ressemblait à une simple curiosité s’est transformé en intrigue alors que d’autres noms déclenchaient des réactions similaires : Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber et Guido Scorza. Ces phénomènes sont-ils le reflet d’une panne technique ou une intention délibérée de masquer certaines informations ?
Les motifs obscurs des outils d’IA éveillent les pires théories de conspiration chez certains, tandis que d’autres y voient simplement des ajustements maladroits de paramètres de sécurité.
En creusant davantage, on constate que ces noms sont tous associés à des figures publiques, ayant potentiellement une raison légitime de voir certaines informations restreintes ou effacées des archives numériques. Brian Hood, par exemple, a peut-être initié l’une des premières frictions entre un outil d’IA et la législation sur la diffamation. Cela pourrait-il être une réponse aux préoccupations sur le droit à l’oubli ?
Pourquoi donc Mayer et d’autres comme lui sont-ils traités avec tant de précaution ? Diverses théories émergent : des algorithmes de chat réputés pour « oublier » ou ignorer certaines requêtes en raison de préoccupations légales ou éthiques. OpenAI, l’entreprise derrière ChatGPT, n’a pas révélé ses secrets, se contentant d’affirmer que ces noms figuraient sur une liste protégée pour des raisons de confidentialité interne.
Alors, spéculons-nous ou s’agit-il d’une simple erreur de syntaxe ou d’un code corrompu ? En somme, cette affaire est-elle plus révélatrice des lacunes techniques que des intentions sournoises de l’intelligence artificielle ? Les machines demeurent-elles imparfaites, malgré l’apparence trompeuse de perfection qui les entoure ?
Ce cas intrigue et soulève une question cruciale : alors que nous naviguons de plus en plus dans des mondes régis par des algorithmes, devons-nous accepter que certains mystères numériques restent irrésolus ou devons-nous exiger davantage de transparence des créateurs de ces systèmes ?
Source : Techcrunch