La modération du contenu sur Facebook est-elle suffisante pour éviter la propagation de la haine et de la violence ? Les géants des médias sociaux sont régulièrement confrontés à des accusations concernant leur responsabilité dans l’amplification de la violence, notamment lors du conflit au Tigré qui a fait plus de 600 000 morts. Mais comment Meta, la société mère de Facebook, gère-t-elle la modération du contenu en Afrique et, plus précisément, au Kenya ?
Une affaire en cours met en lumière le problème de la modération du contenu sur Facebook. Des chercheurs éthiopiens et un groupe de défense des droits au Kenya ont déposé une plainte en décembre dernier, accusant Meta de ne pas avoir agi contre la viralité des discours de haine sur Facebook. Ils estiment également que la société a « sous-investi » dans la modération humaine du contenu au Kenya. Mais quels sont les enjeux de cette affaire et quel impact pourrait-elle avoir sur la manière dont Meta gère la modération du contenu en Afrique et ailleurs ?
La question cruciale : Meta fait-elle assez pour lutter contre la propagation de la haine et de la violence sur ses plateformes en Afrique ?
Les plaignants dans cette affaire allèguent que l’algorithme de Facebook amplifie les messages haineux et incitant à la violence, ce qui attire davantage d’interactions et maintient les utilisateurs connectés plus longtemps. Les plaignants accusent Meta d’avoir sous-investi dans la modération humaine du contenu au Kenya, mettant ainsi des vies en danger. L’un des plaignants, dont le père aurait été tué pendant la guerre au Tigré après que des messages sur Facebook l’aient identifié et appelé à la violence, affirme que de nombreuses autres tragédies similaires se sont produites.
Mais Meta a-t-elle assez de modérateurs de contenu pour faire face aux défis de la modération en Afrique ? Selon les plaignants, la modération du contenu en langue locale est loin d’être adéquate. Ils pointent du doigt le fait qu’il n’y aurait que 25 modérateurs pour les contenus en amharique, tigrinya et oromo, laissant 82 autres langues sans personnel dédié à la modération. Peut-on vraiment s’attendre à ce qu’une entreprise comme Meta puisse gérer la modération dans une si grande diversité de langues et de contextes locaux ?
Ce n’est pas la première fois que Meta est accusée d’alimenter la violence en Éthiopie. La lanceuse d’alerte Frances Haugen a déjà affirmé que la société « attise littéralement la violence ethnique » dans le pays, et une enquête de Global Witness a également souligné les lacunes de Facebook dans la détection des discours de haine dans la langue principale de l’Éthiopie. Quelles mesures devrait prendre Meta pour répondre à ces préoccupations et améliorer sa modération du contenu dans la région ?
Pour l’instant, les plateformes de médias sociaux, dont Facebook, restent bloquées en Éthiopie depuis début février en raison de manifestations antigouvernementales provoquées par des projets d’État visant à diviser l’Église orthodoxe éthiopienne Tewahedo. Les difficultés que Meta rencontre au Kenya pourraient-elles constituer un tournant dans la manière dont la société aborde la modération du contenu en Afrique et ailleurs ? Seuls le temps et les développements futurs de cette affaire donneront la réponse à cette question cruciale.
Source : Techcrunch