Comment une plate-forme autrefois florissante peut-elle se retrouver à marchander la propriété intellectuelle de ses utilisateurs? C’est précisément la situation dans laquelle EyeEm, la communauté berlinoise de partage de photos reprise par la société espagnole Freepik après sa faillite, s’est engagée en modifiant ses Conditions Générales pour se permettre de former des modèles d’IA avec les photos de ses utilisateurs. Mais comment ont-ils informé leurs utilisateurs, et quelle a été la fenêtre de désinscription proposée?
À l’époque de son acquisition en 2023 par Freepik, la bibliothèque de photos d’Eyem comptait 160 millions d’images et près de 150 000 utilisateurs. La compagnie avait promis d’intégrer sa communauté avec celle de Freepik. Malgré un déclin notable, l’application est encore téléchargée par près de 30 000 personnes chaque mois. EyeEm s’est-il vraiment éloigné de son ambition d’être une alternative à Instagram ou « l’Instagram de l’Europe »?
Avant la vente à Freepik, EyeEm a été réduit à une équipe de trois personnes. Freepik envisageait déjà d’incorporer l’IA sur la plate-forme pour les créateurs. Cela signifiait-il dès le départ que la vente de leur travail pour entraîner des modèles d’IA était envisagée?
Les nouveaux termes et conditions d’EyeEm illustrent une tendance inquiétante : la formation de modèles d’IA au détriment du consentement explicite des utilisateurs.
Les modalités mises à jour stipulent que tout contenu uploadé accorde à EyeEm le droit de l’utiliser pour « former, développer et améliorer des logiciels, des algorithmes et des modèles d’apprentissage machine ». Ce changement soulève une question critique : les créateurs sont-ils conscients de ce qu’ils signent vraiment en rejoignant la communauté EyeEm?
Le processus de suppression de contenu est compliqué, limitant les utilisateurs à supprimer leurs photos une par une, avec une fenêtre de désinscription de seulement 30 jours et une période d’attente jusqu’à 180 jours pour les suppressions demandées. Ce déséquilibre entre la capacité de se désinscrire et le processus de suppression expose-t-il délibérément les utilisateurs à la perte de contrôle sur leur propre contenu?
Face à une telle controverse, la réaction des utilisateurs a été vive, beaucoup exprimant leur mécontentement face à l’absence d’une option de suppression en masse. Cette situation a ouvert la voie à des alternatives comme Pixelfed, qui promet de ne jamais utiliser les images des utilisateurs pour entraîner des modèles d’IA. Mais est-ce suffisant pour regagner la confiance des créateurs dans un écosystème numérique de plus en plus commercialisé?
La situation d’Eyem met en lumière une problématique majeure de l’ère numérique : dans quelle mesure les plateformes peuvent-elles disposer du travail créatif de leurs utilisateurs sans consentement explicite? Le monde de la tech doit-il revoir ses principes éthiques, ou les utilisateurs sont-ils désormais condamnés à être les victimes consentantes de la course à l’IA?
Face à la montée des préoccupations concernant la vie privée et le consentement dans l’utilisation de données personnelles pour l’entraînement d’IA, où se situe la ligne entre l’innovation technologique et le respect des droits des créateurs?
Source : Techcrunch