X apporte-t-il un changement significatif à son outil de vérification des faits basé sur la foule pour tenter d’endiguer le flot de désinformation sur sa plateforme? La nouvelle règle est une qui sera familière aux vérificateurs de faits professionnels, aux universitaires et aux éditeurs de Wikipédia, mais elle est néanmoins nouvelle dans l’approche de X en matière de vérification des faits : la société exige désormais de ses contributeurs bénévoles qu’ils incluent des sources pour chaque note communautaire qu’ils écrivent.
L’entreprise a annoncé le changement dans un post sur X, peu après que Wired a signalé que certains contributeurs de notes communautaires craignent que l’outil ne soit manipulé par de mauvais acteurs et n’aggrave les problèmes de désinformation de X en pleine guerre entre Israël et le Hamas. « À partir d’aujourd’hui, les sources sont désormais requises pour les notes proposées », a écrit la société. « Nous n’avons pas exigé cela auparavant, car certaines notes utiles n’ont pas intrinsèquement besoin de sources – par exemple, elles se réfèrent aux détails du post ou aux médias qu’il contient. Mais ces cas sont moins courants, et nous pensons que l’impact global de ce changement sera positif ».
« L’introduction de sources dans les notes communautaires est un effort pour améliorer la qualité de l’information et lutter contre la désinformation. »
Cette modification intervient alors que le nombre de désinformations et d’autres faussetés se propageant sur X ces derniers jours est de plus en plus scruté. Les chercheurs de longue date ont dit que la désinformation a atteint de nouveaux sommets à la suite des attaques du Hamas en Israël et de la guerre qui a suivi. L’avènement de la vérification payante, et les changements d’algorithmes qui favorisent les abonnés payants, ont permis à la désinformation de se propager relativement sans contrôle, ont déclaré les chercheurs.
Les responsables de l’Union européenne ont également exprimé leurs préoccupations, soulignant la diffusion virale de séquences de jeu vidéo et d’autres contenus non liés prétendant à tort représenter des scènes du conflit en cours. Les responsables de l’UE ont ouvert une enquête sur X au sujet de sa gestion de la désinformation la semaine dernière.
Sous la direction d’Elon Musk, X a coupé les équipes responsables de la curation d’informations fiables sur les événements d’actualité, a supprimé les outils de signalement de la désinformation, a réduit les équipes de sécurité qui patrouillaient pour la désinformation, et a arrêté d’étiqueter les comptes de médias affiliés à l’État. Au lieu de cela, la société a presque entièrement compté sur Community Notes, qui permet aux contributeurs bénévoles d’ajouter des vérifications de faits à des tweets individuels.
Les contributeurs ne sont pas filtrés avant de rejoindre le programme, bien que les notes doivent atteindre un certain seuil de « helpful » de la part d’autres contributeurs avant d’être visibles. Linda Yaccarino, CEO de X, a déclaré aux responsables de l’UE la semaine dernière que la société avait « récemment lancé une accélération majeure de la vitesse à laquelle les notes apparaissent ».
Selon Wired, le système est facilement manipulable car des groupes de contributeurs peuvent noter les notes des autres, ou noter sélectivement les contributions qui sont en accord avec leurs opinions. Le rapport indique également que les notes communautaires liées à la guerre Israël-Hamas ont été remplies de théories du complot et de combats entre contributeurs.
Le changement visant à exiger une source liée pourrait être la tentative de X d’améliorer la qualité de ses notes, bien qu’il ne semble pas avoir de directives sur les types de sources qui peuvent être citées. La société dit que « des milliers » de nouveaux contributeurs ont rejoint le programme ces derniers jours, et que les notes ont été vues « des millions » de fois. Mais cela suffit-il pour résoudre le problème de la désinformation sur la plateforme?
Source : Engadget