A MacBook with lines of code on its screen on a busy desk

Credits image : Christopher Gower / Unsplash

Intelligence ArtificielleJeux vidéosTechnologie
0

Les entreprises tech respectent-elles les normes éthiques du web?

Les géants de la technologie respectent-ils toujours les règles du jeu? Amazon Web Services (AWS) a ouvert une enquête pour déterminer si Perplexity AI enfreint ses règles. Mais de quoi Perplexity est-elle accusée?

Selon Wired, AWS enquête sur des allégations selon lesquelles Perplexity AI utilise un crawler hébergé sur ses serveurs, qui ignore le Robots Exclusion Protocol. Ce protocole est une norme web permettant aux développeurs de spécifier si les robots peuvent ou non accéder à une page. Mais respecter ces instructions reste volontaire. Alors, pourquoi ces accusations sont-elles si graves?

Wired a déjà rapporté avoir découvert une machine virtuelle contournant les instructions de robots.txt de son site. Elle était hébergée sur un serveur AWS avec une adresse IP attribuée sans équivoque à Perplexity. Cette machine aurait visité les propriétés de Condé Nast des centaines de fois en trois mois pour en extraire du contenu. Est-ce un cas isolé ou une pratique courante chez les IA?

Le doute persiste: que fait Perplexity AI avec le contenu des autres sites?

Un rapport de Reuters évoque que Perplexity ne serait pas seul à contourner les fichiers robots.txt pour alimenter les modèles de langage. Pourtant, Amazon semble se concentrer uniquement sur Perplexity. Un porte-parole d’AWS a insisté sur le fait que les clients doivent respecter ces instructions et ne peuvent utiliser les services AWS pour des activités illégales. Perplexity a-t-elle vraiment enfreint ces règles?

Sara Platnick, porte-parole de Perplexity, a répondu qu’ils respectent le protocole de robots.txt et que les services contrôlés par Perplexity ne violent en aucun cas les conditions de service d’AWS. Platnick souligne qu’Amazon a seulement enquêté après la demande de Wired. Mais Perplexity admet-elle toute la vérité?

Aravind Srinivas, PDG de Perplexity, a nié ignorer le Robots Exclusion Protocol. Cependant, il a reconnu utiliser des crawlers tiers, incluant celui identifié par Wired. Cela soulève une autre question: les entreprises de l’IA connaissent-elles vraiment toutes les activités de leurs partenaires?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.