Vous êtes-vous déjà demandé ce qui détermine la qualité des recommandations de contenu sur les réseaux sociaux? Récemment, des utilisateurs de Threads, une plateforme intégrée à Instagram, ont été confrontés à une vague de publications de faible qualité, incluant de la provocation à l’engagement et même des discours haineux. Mais qu’est-ce qui a causé cette dégradation soudaine et quelles mesures sont prises pour résoudre le problème?
En quête d’une expérience utilisateur positive, que fait Threads pour filtrer le contenu qui frôle la limite des directives communautaires sans totalement les enfreindre? Adam Mosseri, le responsable d’Instagram, reconnaît les problèmes de recommandations de faible qualité sur Threads et présente ses excuses. Il assure que des correctifs sont en cours, mais quelles sont ces modifications et suffiront-elles à épurer les fils d’actualité des utilisateurs?
« Nous travaillons à améliorer [le fil de recommandations]. Beaucoup de choses devraient être corrigées à ce point, » déclare Adam Mosseri.
Avez-vous ressenti une augmentation du contenu provocateur et haineux, en particulier transphobe, sur votre fil Threads? Cette détérioration soudaine n’est pas passée inaperçue et a entraîné une vague de plaintes de la part des utilisateurs. Mais que fait Threads exactement pour contrer cette montée de contenu nocif qui semble s’immiscer de plus en plus dans nos flux numériques?
Lorsqu’Engadget sollicite Meta pour savoir si les améliorations évoquées par Mosseri s’attaqueront spécifiquement à la transphobie et autres formes de discours de haine, la réponse reste vague. Un porte-parole réitère les commentaires de Mosseri, en affirmant que des étapes sont prises pour s’attaquer au problème. Cependant, peut-on réellement se sentir rassuré par cette promesse d’action, et quels mécanismes seront mis en place pour garantir un environnement numérique plus sain et respectueux?
Le silence de Threads sur les stratégies concrètes à adopter soulève des questions sur la transparence et l’efficacité des plateformes sociales dans la gestion de leurs contenus. Comment ces plateformes peuvent-elles assurer la qualité des recommandations sans pour autant censurer la libre expression? Et jusqu’où devra-t-on aller pour que ces espaces numériques soient de nouveau sécuritaires et agréables?
Source : Engadget