Apple a-t-il manqué à sa responsabilité en matière de protection des enfants? C’est la question que soulève une récente plainte déposée contre le géant technologique. La décision de ne pas mettre en place un système pour scanner les photos iCloud à des fins de détection de matériel d’abus sexuels sur enfants (CSAM) fait aujourd’hui l’objet d’un débat houleux. Pourquoi Apple, après avoir annoncé un système soi-disant innovant pour protéger les plus jeunes, a-t-il choisi de ne pas le déployer ?
Selon un article du New York Times, la plainte reproche à Apple sa passivité, laquelle contraindrait les victimes à revivre leurs traumatismes. Cette polémique soulève des questions importantes sur les raisons qui ont poussé Apple à ne pas concrétiser ses projets initiaux. S’agit-il d’un souci accru de préservation de la vie privée de ses utilisateurs ou d’une simple négligence ?
En 2021, Apple avait pourtant annoncé un système avec des signatures numériques pour identifier le contenu CSAM dans les bibliothèques iCloud des utilisateurs. Mais la mise en place de ce système a été révisée suite à des craintes de surveillance gouvernementale, soulevées par des défenseurs de la vie privée. Cette marche arrière était-elle vraiment justifiée ?
Apple doit-il revoir sa priorité entre sécurité et vie privée ?
Cette affaire est portée par une femme de 27 ans qui poursuit la firme sous anonymat. Elle raconte avoir été victime d’abus dès son enfance, avec des images diffusées sur internet. Encore aujourd’hui, elle affirme recevoir quotidiennement des notifications des autorités concernant l’arrestation de personnes en possession de ces clichés. À quel point la technologie doit-elle évoluer pour empêcher de telles tragédies ?
L’avocat James Marsh, qui représente la plaignante, évoque même un potentiel de 2 680 victimes qui pourraient prétendre à des indemnisations. Faut-il y voir l’indication d’un problème systémique chez Apple ou plus largement dans l’industrie technologique ?
Contactée pour réagir, la porte-parole d’Apple a indiqué au Times que l’entreprise « innove activement et d’urgence » afin de combattre ces crimes, tout en préservant la sécurité et la confidentialité de ses utilisateurs. Mais cela sera-t-il suffisant pour apaiser les critiques et convaincre les sceptiques ?
En août, une fillette de neuf ans avait intenté une action similaire contre Apple, accusant l’entreprise de ne pas avoir suffisamment protégé les jeunes utilisateurs d’iCloud contre le CSAM. Ce cas finit-il par illustrer une tendance plus large d’insatisfaction vis-à-vis des mesures prises par les géants technologiques ?
Source : Techcrunch