girl in blue shirt looking at the window

Credits image : Alexander Grey / Unsplash

CryptoRéseaux sociauxSociété
0

Meta prend-il vraiment le contrôle de la protection de la jeunesse sur ses plateformes ?

Quelles nouvelles mesures Meta déploie-t-elle pour protéger les jeunes utilisateurs sur Facebook et Instagram ? Jusqu’à présent, sur Instagram, les utilisateurs adultes n’avaient pas la possibilité de contacter directement les adolescents qui ne les suivent pas. Cette limite est désormais étendue à tous les utilisateurs de moins de 16 ans, voire de moins de 18 ans dans certaines régions, par défaut. Mais comment Meta compte-t-il informer ses utilisateurs existants ? Visiblement, par une simple notification.

Messagerie directe, contrôles parentaux renforcés : à quel point ces changements améliorent-ils réellement la sécurité ? Sur Messenger, les utilisateurs ne recevront des messages que de leurs amis Facebook ou de contacts pré-enregistrés. Mais allons-nous assez loin avec ces mesures ? Meta renforce également les contrôles parentaux. Avant, les tuteurs étaient avertis lorsqu’un adolescent modifiait ses paramètres de confidentialité, mais ils ne pouvaient pas intervenir. Les temps changent-ils ?

Meta renforce les contrôles parentaux, mais est-ce suffisant pour la sécurité des jeunes ?

Aujourd’hui, si un adolescent tente de rendre son compte public, de modifier le Contrôle de contenu sensible ou de changer les paramètres de réception de messages directs, les tuteurs peuvent bloquer ces changements. Mais les adolescents sont-ils vraiment protégés par ces nouvelles directives ?

En 2022, Meta a introduit des outils de supervision parentale pour Instagram. Les tuteurs pouvaient avoir un aperçu de l’utilisation qu’en faisaient leurs adolescents. Mais cela a-t-il amélioré le sentiment de sécurité et de contrôle des parents ? Et maintenant, Meta prévoit de lancer une fonctionnalité pour empêcher les adolescents de voir des images inopportunes et inappropriées dans leurs messages directs, y compris dans les chats cryptés de bout en bout. Cette fonctionnalité « découragerait »-t-elle vraiment l’envoi de ce type d’images ?

Alors que Meta n’a pas précisé comment la vie privée des adolescents sera protégée lors de la mise en œuvre de ces caractéristiques, ni donné de détails sur sa définition de « inapproprié », quel impact ces flous auraient-ils sur la mise en application effective de ces mesures ? Par ailleurs, Meta a également introduit de nouveaux outils pour limiter l’exposition des adolescents à des contenus concernant l’automutilation et les troubles alimentaires sur ses plateformes. Est-ce suffisant pour affronter le problème à grande échelle ?

Convoqué devant le Sénat le 31 janvier de cette année pour discuter de la sûreté des enfants en ligne, Meta, aux côtés d’autres réseaux sociaux, devra affronter des régulateurs de l’Union européenne curieux de comprendre ses efforts pour éviter le partage de matériel d’abus sexuels d’enfants par eux-mêmes et répondre à une action en justice accusant le réseau de promouvoir des comptes mineurs à des prédateurs. Cela signifie-t-il que les initiatives de Meta seront désormais plus scrutées et potentiellement inspirées par la législation en la matière ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.