woman in black and white dress sitting on bed

Credits image : Barbara Zandoval / Unsplash

Intelligence ArtificielleRéseaux sociaux
0

Meta peut-elle vraiment protéger ses utilisateurs contre les abus d’IA?

Les géants des réseaux sociaux sont-ils réellement capables de protéger leurs utilisateurs contre les abus de l’IA? C’est la question que soulève la récente décision du Conseil de surveillance de Meta sur les deepfakes sexuellement explicites. Que s’est-il passé dans ces cas concrets, et quelles recommandations ont été formulées?

Les affaires en question concernent des images générées par IA représentant des figures publiques. La première image montrant une femme indienne nue sur Instagram a été initialement ignorée par Meta jusqu’à ce que le Conseil de surveillance intervienne. Pourquoi ce délai et cet aveuglement? La deuxième affaire, un post Facebook illustrant une femme nue avec un homme lui touchant la poitrine, a été automatiquement supprimée par Meta grâce à un système de reconnaissance interne. Pourquoi ces deux approches différentes pour des contenus similaires?

Le Conseil de surveillance critique les règles actuelles de Meta concernant les deepfakes sexuellement explicites, les trouvant désuètes. Les utilisateurs ont-ils vraiment les moyens de signaler efficacement ces images dérangeantes? Les recommandations soulignent la nécessité de politiques plus claires et mises à jour interdisant explicitement les images explicites non consensuelles générées par IA. Meta est-elle prête à adapter ses règles et offrir une meilleure protection?

Meta doit impérativement clarifier et moderniser sa réglementation pour inclure explicitement les images non consensuelles générées ou modifiées par IA.

Une autre préoccupation soulevée par le Conseil est la pratique de Meta de fermer automatiquement les appels des utilisateurs, soulignant les impacts potentiellement graves sur les droits humains. Cette pratique opaque pose la question: comment Meta équilibre-t-elle entre automatisation et justice pour les utilisateurs?

Le problème des images explicites créées par IA, souvent qualifiées de « pornographie deepfake », est de plus en plus répandu. Des nouvelles lois aux États-Unis envisagent de permettre aux victimes de poursuivre les créateurs de ces images. Meta doit-elle agir plus vite que ne le fait la législation pour protéger ses utilisateurs?

Ce n’est pas la première fois que le Conseil de surveillance pousse Meta à revoir ses politiques sur les contenus générés par IA. Une affaire similaire concernait une vidéo éditée de manière malveillante du Président Joe Biden, conduisant Meta à repenser l’étiquetage des contenus générés par IA. La question finale demeure: Meta mettra-t-elle en œuvre ces recommandations avant qu’une autre crise n’éclate?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.