two bullet surveillance cameras attached on wall

Credits image : Scott Webb / Unsplash

Réseaux sociauxSociété
0

Discordance numérique : quand la sécurité des enfants prend l’air d’un jeu

« Discord, où le chaos rencontre la technologie », un slogan qui prend un tout autre tournant avec les récentes révélations de NBC News. Penchons-nous sur un problème qui, je ne vous le cache pas, fait tache d’encre et de pixels.

Selon le rapport publié par NBC News, la plateforme Discord serait impliquée dans 35 cas de « kidnapping, grooming ou agression sexuelle » au cours des six dernières années. Pour être tout à fait clair, ces actes criminels ont impliqué des adultes accusés de ces charges et des communications ayant eu lieu sur la plateforme Discord. Parmi ces affaires, au moins 15 ont conduit à des reconnaissances de culpabilité ou des verdicts, et « beaucoup d’autres » sont en cours.

Sombre discordance : questions de sécurité et de protection de l’enfance.

Mais pourquoi s’arrêter en si bon chemin ? Toujours selon le rapport, 165 autres cas ont été découverts, dont quatre réseaux criminels où des adultes étaient poursuivis pour avoir partagé du matériel d’exploitation sexuelle d’enfants (CSAM) via Discord ou, ô surprise, utilisé le site pour extorquer des enfants en les obligeant à envoyer des images sexuellement explicites d’eux-mêmes. Hélas, ces actes illégaux se déroulent souvent dans des communautés et des salles de discussion cachées. Troublant, n’est-ce pas ?

Le Centre canadien de protection de l’enfance a souligné que ce que l’on voit n’est que « la pointe de l’iceberg ». Si l’on ajoute à cela le fait que la gestion des plaintes pour maltraitance des enfants par Discord a été maintes fois critiquée, on se rend compte que la situation est loin d’être reluisante pour la plateforme.

Face à ces révélations, Discord a affirmé que son investissement et sa priorisation en matière de sécurité des enfants « n’ont jamais été aussi importants ». La plateforme a récemment mis en place plusieurs systèmes pour détecter proactivement le CSAM et analyser le comportement des utilisateurs. Cependant, il semblerait qu’un travail reste à faire, car selon NBC News, Discord utilisait des termes déguisés pour référencer du CSAM sur 242 serveurs créés le mois dernier.

En conclusion, Discord pourrait changer de slogan pour « Discord, maître du chaos pixelisé », car si les problèmes de sécurité liés aux enfants ne sont pas propres à cette plateforme, il semblerait qu’elle ait créé sa propre cacophonie numérique. Allez, il est temps d’accorder un peu de discord dans nos articles !

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.