Les géants des réseaux sociaux peuvent-ils réellement prévenir la propagation de contenus nuisibles en ligne ? Le programme « Thrive » de la Mental Health Coalition (MHC) vise à répondre à cette question cruciale.
En partenariat avec Meta, Snap et TikTok, « Thrive » propose un système de partage de signaux potentiellement dangereux pour la santé mentale, comme les contenus incitant au suicide ou à l’automutilation. Comment fonctionnera ce partage ? Les plateformes échangeront des « hashes », des sortes d’empreintes digitales uniques de ces contenus sans dévoiler les informations personnelles des utilisateurs.
Contribué par Meta, l’infrastructure technique utilisée n’est pas nouvelle ; elle a déjà été appliquée dans le cadre du programme Lantern pour la sécurité des enfants en ligne. Les membres de « Thrive » pourront alors regrouper des informations sur ces contenus nuisibles et recevoir des alertes de contenus préoccupants ou en violation de leurs politiques.
Le programme « Thrive » vise à unir les grandes plateformes pour lutter contre les contenus nuisibles.
Dan Reidenberg, directeur du National Council for Suicide Prevention, dirigera « Thrive », garantissant l’efficacité et la transparence des opérations. Les entreprises participantes devront télécharger, examiner et agir sur les contenus partagés, et rédiger un rapport annuel sur l’impact du programme. Quelle sera donc la contribution réelle de ces géants du numérique dans la sauvegarde des vies ?
Pour sa part, le fondateur de la MHC, Kenneth Cole, s’est félicité de cette collaboration inédite visant à traiter les problèmes de suicide et d’automutilation sur les réseaux sociaux. Cependant, il est important de noter que X (anciennement Twitter) n’est pas membre de « Thrive », probablement à cause de son historique de modération laxiste.
D’ailleurs, X souffre d’une équipe de modération significativement réduite après que son PDG, Elon Musk, a licencié une large partie de son personnel dédié à la sécurité. Malgré des annonces de création de centres d’excellence, peu a été fait pour remédier à ce manque de modération. Comment ces décisions affecteront-elles la sécurité des utilisateurs ?
Surpris de l’absence de Google, on note que YouTube a souvent été critiqué pour son incapacité à protéger les jeunes des contenus préjudiciables. Une étude récente indique que YouTube pourrait encore recommander des vidéos promouvant le suicide. Quelles mesures Google prendra-t-il pour améliorer cette situation ?
Tout ceci soulève une question essentielle : les efforts de Meta, Snap et TikTok suffiront-ils à endiguer la crise de la santé mentale liée aux réseaux sociaux, ou faut-il s’attendre à de nouvelles actions plus drastiques ?
Source : Techcrunch