person wearing mask

Credits image : Nahel Abdul Hadi / Unsplash

Réseaux sociauxSociété
0

La sécurité infantile sur les réseaux sociaux : qui est vraiment responsable ?

Quelles mesures sont mises en place pour protéger nos enfants sur les réseaux sociaux ? Lors d’une récente audition du Comité judiciaire du Sénat américain consacrée à la sécurité des enfants en ligne, d’importantes révélations ont été faites concernant l’utilisation des outils de contrôle parental. Evan Spiegel, PDG de Snap, a déclaré que Snapchat comptait environ 20 millions d’adolescents américains parmi ses utilisateurs et que le « Family Center » du réseau, utilisé par près de 200 000 parents, a permis de lier près de 400 000 comptes d’adolescents à ceux de leurs parents. Mais est-ce suffisant?

Le « Family Center » de Snapchat offre-t-il vraiment une transparence aux familles sur les activités de leurs adolescents en ligne? Lancée en 2022, cette fonctionnalité permet aux parents de voir avec qui leur enfant est ami et avec qui il communique. Snapchat a affiché sa réactivité face à la pression croissante sur les réseaux sociaux pour une meilleure protection des mineurs. Doit-on pour autant conclure à une démarche proactive globale des plateformes sociales?

Le sénateur Alex Padilla (D-Calif) a interrogé les PDG de Snap, Meta, TikTok, X et Discord sur le nombre de mineurs utilisant leurs plateformes et le nombre de parents exploitant les contrôles de supervision parentale. Spiegel a été le seul à fournir des chiffres précis. Qu’en est-il de la transparence des autres acteurs?

Spiegel de Snap est le seul à avoir partagé des statistiques concernant l’utilisation des contrôles parentaux.

Subissant des pressions accrues, Snapchat a introduit ses contrôles parentaux, rejoignant ainsi Instagram, TikTok et YouTube, qui ont tous déployé des fonctionnalités similaires. La tendance est-elle à la responsabilisation des géants des réseaux sociaux ou assiste-t-on à un simple effet de suivi?

Alors que Spiegel fournissait des données exactes, Mark Zuckerberg de Meta a admis ne pas pouvoir donner de chiffres spécifiques, mais a mentionné que des campagnes étaient menées pour sensibiliser à l’existence des outils de supervision. Linda Yaccarino de X a révélé que moins de 1% des utilisateurs américains de la plateforme sont âgés de 13 à 17 ans et que des contrôles parentaux sont à l’étude, mais quelle est la véritable portée de ces efforts?

Chez TikTok, le PDG Shou Zi Chew n’a pas pu partager de détails mais a souligné que TikTok était « l’une des premières plateformes » à offrir des contrôles de supervision aux parents. Jason Citron de Discord a quant à lui mis en avant la sensibilisation via des vidéos promotionnelles et des incitations in-app. Ces initiatives sont-elles à la hauteur des enjeux de sécurité enfantine sur le web?

Zuckerberg de Meta a suggéré que la gestion du consentement parental pour les applications devrait incomber à Apple et Google, et non à Meta. Quelles sont les implications de cette affirmation pour la sécurité des plus jeunes utilisateurs d’Internet? Est-ce un transfert de responsabilité ou une solution viable à long terme?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.