Qu’est-ce qui a poussé l’autorité italienne de la concurrence et de la consommation, l’AGCM, à infliger une amende de 10 millions d’euros à TikTok suite à des préoccupations liées à la sécurité algorithmique?
L’, enquête débutée l’année dernière par l’AGCM portait sur un défi de l’auto-flagellation sur le visage, connu sous le nom de « French scar challenge », qui a vu des vidéos partagées par des utilisateurs, montrant les marques sur leurs visages faites en pincant leur peau. Mais, cette affaire révèle-t-elle un problème plus profond chez TikTok?
Jeudi, dans un communiqué de presse, l’AGCM a indiqué que trois entreprises régionales du groupe ByteDance, basées en Irlande, au Royaume-Uni et en Italie, avaient été sanctionnées pour ce qui a été résumé comme une « pratique commerciale déloyale ». Mais qu’est-ce qui a été précisément jugé déloyal dans leurs pratiques?
La plateforme n’a pas réussi à surveiller le contenu pouvant menacer la sécurité des mineurs et des individus vulnérables.
L’AGCM a confirmé la responsabilité de TikTok dans la diffusion de contenus susceptibles de menacer la sécurité psycho-physique des utilisateurs, notamment ceux liés au défi « French scar ». Mais quelles mesures la plateforme aurait-elle dû prendre pour prévenir cette diffusion?
La critique de l’AGCM sur la manière dont TikTok applique ses propres directives, sans tenir compte de la vulnérabilité spécifique des adolescents, soulève une question importante : quelle est la part de responsabilité des réseaux sociaux dans la protection de ces jeunes utilisateurs?
L’attention est notamment portée sur le système de recommandation de TikTok dans la propagation de contenu « potentiellement dangereux », soulignant ainsi l’incitation de la plateforme à augmenter l’engagement et le temps passé sur le service pour booster ses revenus publicitaires. Ce procédé met-il en lumière une problématique plus large concernant les feed basés sur le profilage algorithmique?
La récente demande de certains législateurs européens pour que les fils de contenu basé sur le profilage soient désactivés par défaut attire-t-elle suffisamment l’attention sur les risques posés par le profilage algorithmique?
L’opposition de TikTok à la décision de l’AGCM et sa tentative de minimiser les risques algorithmiques posés aux mineurs et aux individus vulnérables sont-elles justifiées, ou ignorent-elles les dangers réels posés par les challenges controversés tels que le « French scar »?
Alors que l’Union Européenne poursuit son enquête ouverte le mois dernier sur TikTok, se concentrant sur son design addictif, le contenu nocif et la protection des mineurs, quelles seront les prochaines étapes pour la plateforme face à une réglementation croissante? TikTok réussira-t-il à convaincre les régulateurs de sa capacité à protéger les mineurs?
Source : Techcrunch