Pourquoi Apple ne déclare-t-il pas autant de cas de matériel pédopornographique (CSAM) que certaines des autres grandes entreprises technologiques ? La National Society for the Prevention of Cruelty to Children (NSPCC), une association caritative britannique, accuse Apple d’avoir signalé seulement 267 cas suspectés de CSAM à l’organisme américain National Center for Missing & Exploited Children (NCMEC) l’année dernière, un chiffre qui apparaît particulièrement faible par comparaison avec d’autres géants du secteur.
Comment expliquer cet écart flagrant ? Google, par exemple, a signalé 1,47 million de cas en 2023 et Meta un impressionnant 30,6 millions. Les plateformes telles que TikTok, Snapchat, et même des services de jeux comme Xbox et PlayStation, ont tous rapporté plus de cas que Apple. Les entreprises américaines ont l’obligation légale de transmettre toute détection de CSAM au NCMEC, et pourtant, Apple semble être en décalage par rapport à cette norme.
Les chiffres deviennent encore plus intrigants lorsque l’on considère les données de la NSPCC, qui révèlent qu’Apple a été impliqué dans plus de cas de CSAM en Angleterre et au Pays de Galles dans la période entre avril 2022 et mars 2023 (337 cas) que le nombre total de rapports qu’ils ont fait dans le monde entier en une année. Ces informations ont été obtenues via les demandes d’accès à l’information auprès des forces de police.
Apple semble souvent privilégier la protection de la vie privée de ses utilisateurs au détriment de la sécurité des enfants.
Est-ce que l’utilisation du cryptage de bout en bout (E2EE) par Apple peut expliquer cette situation ? Services comme iMessage, FaceTime et iCloud d’Apple utilisent E2EE, ce qui empêche la société de voir les contenus partagés. Cependant, cela n’a pas empêché WhatsApp, autre service utilisant E2EE, de signaler près de 1,4 million de cas de CSAM en 2023. Richard Collard, responsable de la politique de sécurité en ligne pour enfants à la NSPCC, affirme que Apple est à la traîne par rapport à d’autres entreprises technologiques dans la lutte contre les abus sexuels sur enfants.
En 2021, Apple avait annoncé son intention de mettre en place un système qui analyserait les images avant leur chargement sur iCloud pour les comparer à une base de données d’images CSAM connues. Mais suite à la réaction massive des défenseurs de la vie privée et des droits numériques, Apple a fini par abandonner ce projet en 2022. Alors, comment Apple s’y prendra-t-il pour concilier sécurité des enfants et protection de la vie privée ?
Apple a refusé de commenter les accusations de la NSPCC, se référant plutôt à une déclaration antérieure lorsqu’ils ont abandonné le projet de scan CSAM. Dans cette déclaration, Apple affirme avoir choisi une stratégie différente qui « priorise la sécurité et la confidentialité de ses utilisateurs ». Est-il vraiment possible de protéger les enfants sans compromettre la confidentialité des données des utilisateurs?
Source : Engadget