« L’intelligence, c’est comme la confiture, moins on en a, plus on l’étale. » Et bien, Perplexity a peut-être étalé un peu trop de confiture sur le pain de ses utilisateurs!
Imaginez: Vous êtes là, tranquille, à surfer sur internet quand soudain, vous découvrez que votre article préféré a été « emprunté » par Perplexity, cette soi-disant « moteur de recherche AI gratuit ». Un vrai tour de passe-passe technologique! Forbes s’en est aperçu en premier, accusant Perplexity de voler leurs histoires pour les republier en cachette. Ensuite, Wired a découvert que la société ignorait allègrement le Robots Exclusion Protocol (robots.txt), un petit fichier innocent qui dit aux robots ce qu’ils peuvent et ne peuvent pas toucher.
Mais attendez, ce n’est que le début! Le cri d’alarme s’est étendu à The Shortcut et même à Reuters. Il semblerait que Perplexity ne soit pas seul dans cette farce technologique. Un groupe mystérieux, TollBit, a envoyé des lettres aux éditeurs pour les avertir que différents agents AI ignoraient les directives de robots.txt et grignotaient leur contenu sans vergogne.
La technologie peut être intelligente, mais elle a définitivement besoin d’un guide de bonnes manières.
Business Insider a découvert que même les grands noms comme OpenAI (créateurs de l’omniprésent ChatGPT) et Anthropic ne respectaient pas ces pauvres petits fichiers robots.txt. Pourtant, ils juraient avoir du respect pour ce sensible protocole.
En creusant un peu plus, Wired a découvert que des machines opérées par Perplexity transgressaient les règles de leur site. En testant avec quelques titres et prompts, Wired a trouvé des résultats qui paraphrasaient dangereusement leurs articles, parfois générant des résumés erronés, comme l’accusation d’un crime par un policier californien, totalement inventée.
Interrogé par Fast Company, le PDG de Perplexity, Aravind Srinivas, a nié les accusations mais a avoué utiliser des « web crawlers » tiers qui pourraient être coupables. D’après lui, le Robots Exclusion Protocol n’est pas un cadre légal, et il serait peut-être temps de redéfinir les relations entre éditeurs et sociétés AI. Il a même insinué que Wired aurait utilisé des prompts spécifiques pour causer volontairement de tels comportements.
En fin de compte, Srinivas a défendu son entreprise en affirmant qu’ils n’ont jamais prétendu être infaillibles et que des « hallucinations » peuvent survenir. Une chose est sûre: la technologie, c’est bien, mais seulement si elle apprend à respecter les règles de la maison. Rappelez-vous, même les robots doivent apprendre à jouer proprement dans le bac à sable numérique!
Source : Engadget