a room with many machines

Credits image : ZHENYU LUO / Unsplash

Intelligence ArtificielleRéseaux sociaux
0

Deepfake et Colégram: quand la modération fait Swift!

« L’erreur est humaine, mais un véritable désastre nécessite un algorithme. » – Anonyme, probablement grisé par notre époque.

Quiproquo d’époque sur X, la plateforme jadis nommée Twitter et aujourd’hui sous pavillon Muskien: des deepfakes peu orthodoxes de Taylor Swift ont défrayé la chronique, s’offrant une notoriété aussi virale que peu souhaitable. Imaginez, plus de 45 millions de voyeurs et des centaines de milliers de « j’aime » pour des photos truquées de la chanteuse aux allures d’œuvres d’art qu’on ne voudrait pas afficher au-dessus de la cheminée familiale.

L’ironie, c’est que si l’on peinait déjà à nettoyer la place publique du cyber-espace du temps de la vraie-fausse hirondelle bleue, depuis que Musk a passé le Kärcher dans les équipes de modération, autant chercher une aiguille dans une botte de foin numérique. Et voilà que le fan-club titanesque de Taylor s’est mué en gardien du temple, noyant les moteurs de recherche sous un flot de requêtes innocentes pour ensevelir les contenus abusifs sous une montagne de good vibes.

Quand on n’a pas de modération en ligne, les fans montent au front!

Alerte rouge pour la modération chez X, avec la Maison Blanche elle-même sortant de sa réserve et invitant le Congrès à agir, tandis que, cocasse solution de X, une censure temporaire du nom « Taylor Swift » renvoyait les internautes vers un joli message d’erreur.

Dr. Carolina Are, de l’université de Northumbria, enfonce le clou de notre société numérique en berne: sans un soutien d’envergure, comment le quidam ordinaire pourrait-il se défendre dans cet Ouest sauvage numérique? Nos plateformes sociales, reflets d’un patriarcat 2.0, semblent confondre modération et mission impossible.

X a récemment annoncé le recrutement de modérateurs pour un tout nouveau centre de « Confiance et Sécurité » à Austin, Texas. Reste à voir si cette initiative est une véritable charnière ou un simple effet d’annonce d’Elon « The Promiser » Musk.

Pas de repos pour les génies maléfiques, ces odieuses deepfakes proviendraient d’un groupuscule Tapie dans l’ombre de Telegram, utilisant les technologies d’OpenAI et de Microsoft Designer détournées de leur noble parcours. La brèche est depuis colmatée, mais la vigilance reste de mise.

Shane Jones, de Microsoft, a tenté de sonner l’alarme en interne sur les failles de DALL-E 3, avant de se voir réprimandé pour l’air de ses opinions discordantes diffusées au grand jour. Un petit air de « shoot the messenger » en plein far-west numérique.

Et pendant que les colosses de l’IA placent leurs pions, cette mésaventure rappelle que les protections en ligne sont trop souvent des passoires, et que le label « sécurisé » est aussi fiable qu’une promesse électorale. Dr. Carolina Are résume : il faut parfois plus compter sur les communautés en ligne que sur les géants du web pour s’assurer un semblant de paix numérique.

Deepfake et Colégram: quand la modération fait Swift!

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.