Comment les utilisateurs des réseaux sociaux peuvent-ils garder le contrôle sur leurs données alors que l’intelligence artificielle est en plein essor? C’est la question que Bluesky, un réseau social émergent, tente de résoudre. Récemment, Bluesky a publié une proposition sur GitHub, offrant aux utilisateurs la possibilité de spécifier si leurs données peuvent être utilisées à des fins d’entraînement d’IA ou d’archivage public. Est-ce une vraie avancée vers plus de transparence et de contrôle?
Lors d’une conférence à South by Southwest, la CEO Jay Graber a discuté de l’initiative. Cependant, cette annonce a suscité des réactions mitigées. Certains utilisateurs ont exprimé leurs inquiétudes, craignant que ce changement ne trahisse la promesse antérieure de Bluesky de ne pas vendre les données utilisateur à des publicitaires ni de former des IA sur les publications de ses utilisateurs. Bluesky est-il en train de renier ses engagements d’origine?
Un utilisateur, Sketchette, a clairement exprimé son opposition en s’exclamant, « Oh, hell no! La beauté de cette plateforme était le NON partage des informations. Ne cédez pas maintenant. » Jay Graber a répondu en expliquant que les entreprises d’IA génèrent déjà des données publiques à travers le web, y compris de Bluesky, car tout sur Bluesky est public, à l’image d’un site web. Est-ce à dire que Bluesky essaie simplement de s’adapter à une norme inévitable?
Bluesky cherche à établir un nouveau standard de gestion des données en ligne, inspiré du robots.txt, qui aurait un poids éthique mais non légalement contraignant.
La proposition permettrait aux utilisateurs de l’application Bluesky, ou d’autres applications utilisant l’ATProtocol, d’accéder aux réglages et de permettre ou d’interdire l’utilisation de leurs données pour l’entraînement d’IA, le pontage de protocoles, les ensembles de données en bloc, et l’archivage web. Mais cela suffira-t-il pour rassurer ceux qui s’inquiètent de voir leurs données exploitées?
Molly White, analyste et créatrice du blog « Web3 is Going Just Great », a défendu l’idée sur Bluesky en la qualifiant de « bonne proposition ». Elle a souligné que l’intention n’était pas d’accueillir le scraping d’IA mais de fournir un signal de consentement pour que les utilisateurs puissent exprimer leurs préférences concernant le scraping déjà en cours. Cependant, peut-on espérer que les entreprises d’IA respecteront ces signaux sans qu’une force légale les y oblige?
White a poursuivi en exprimant ses réserves sur le reliance excessif de ces propositions sur la bonne volonté des « scrapeurs » de respecter ces signaux de préférence. Dans un monde où certains passent outre les recommandations du robots.txt et piratent des contenus pour les exploiter, est-ce que ces nouvelles mesures seront suffisantes pour protéger la vie privée des utilisateurs?
Source : Techcrunch