boy playing at laptop inside room

Credits image : Ludovic Toinel / Unsplash

CryptoIntelligence ArtificielleSociété
0

Pourquoi Apple déclare-t-il moins de cas de CSAM que ses concurrents ?

Pourquoi Apple ne déclare-t-il pas autant de cas de matériel pédopornographique (CSAM) que certaines des autres grandes entreprises technologiques ? La National Society for the Prevention of Cruelty to Children (NSPCC), une association caritative britannique, accuse Apple d’avoir signalé seulement 267 cas suspectés de CSAM à l’organisme américain National Center for Missing & Exploited Children (NCMEC) l’année dernière, un chiffre qui apparaît particulièrement faible par comparaison avec d’autres géants du secteur.

Comment expliquer cet écart flagrant ? Google, par exemple, a signalé 1,47 million de cas en 2023 et Meta un impressionnant 30,6 millions. Les plateformes telles que TikTok, Snapchat, et même des services de jeux comme Xbox et PlayStation, ont tous rapporté plus de cas que Apple. Les entreprises américaines ont l’obligation légale de transmettre toute détection de CSAM au NCMEC, et pourtant, Apple semble être en décalage par rapport à cette norme.

Les chiffres deviennent encore plus intrigants lorsque l’on considère les données de la NSPCC, qui révèlent qu’Apple a été impliqué dans plus de cas de CSAM en Angleterre et au Pays de Galles dans la période entre avril 2022 et mars 2023 (337 cas) que le nombre total de rapports qu’ils ont fait dans le monde entier en une année. Ces informations ont été obtenues via les demandes d’accès à l’information auprès des forces de police.

Apple semble souvent privilégier la protection de la vie privée de ses utilisateurs au détriment de la sécurité des enfants.

Est-ce que l’utilisation du cryptage de bout en bout (E2EE) par Apple peut expliquer cette situation ? Services comme iMessage, FaceTime et iCloud d’Apple utilisent E2EE, ce qui empêche la société de voir les contenus partagés. Cependant, cela n’a pas empêché WhatsApp, autre service utilisant E2EE, de signaler près de 1,4 million de cas de CSAM en 2023. Richard Collard, responsable de la politique de sécurité en ligne pour enfants à la NSPCC, affirme que Apple est à la traîne par rapport à d’autres entreprises technologiques dans la lutte contre les abus sexuels sur enfants.

En 2021, Apple avait annoncé son intention de mettre en place un système qui analyserait les images avant leur chargement sur iCloud pour les comparer à une base de données d’images CSAM connues. Mais suite à la réaction massive des défenseurs de la vie privée et des droits numériques, Apple a fini par abandonner ce projet en 2022. Alors, comment Apple s’y prendra-t-il pour concilier sécurité des enfants et protection de la vie privée ?

Apple a refusé de commenter les accusations de la NSPCC, se référant plutôt à une déclaration antérieure lorsqu’ils ont abandonné le projet de scan CSAM. Dans cette déclaration, Apple affirme avoir choisi une stratégie différente qui « priorise la sécurité et la confidentialité de ses utilisateurs ». Est-il vraiment possible de protéger les enfants sans compromettre la confidentialité des données des utilisateurs?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.