baby beside green textile

Credits image : Alexander Grey / Unsplash

BlockchainIntelligence ArtificielleSociété
0

Quand l’IA ne joue plus à cache-cache mais à sauve-cache: une quête de protection.

« L’intelligence artificielle, c’est comme le piment dans la cuisine : bien dosée, elle relève le plat; mal contrôlée, elle peut tout gâcher. » Les géants de la tech, dont OpenAI, Microsoft, Google, et Meta, se sont associés dans une initiative piquante : empêcher que leurs outils d’intelligence artificielle (IA) ne soient utilisés pour générer du matériel d’abus sexuels sur des enfants, ou CSAM (Child Sexual Abuse Material). Cet engagement, mené par le groupe de sécurité infantile Thorn et la non-profit All Tech Is Human, est aussi réconfortant qu’un bouillon de poulet en cas de rhume.

L’annonce faite par Thorn et ses alliés pose un jalon historique pour l’industrie et envisage de propulser les efforts de protection des mineurs dans une nouvelle ère, avec l’intelligence artificielle générative comme cheval de bataille. Dans un monde où plus de 104 millions de fichiers suspects de CSAM ont été signalés rien qu’aux États-Unis en 2023, l’absence d’une action concertée aurait pu transformer cette situation déjà critique en un véritable cauchemar logistique pour les forces de l’ordre.

« L’IA générative sans garde-fous pourrait transformer la recherche de l’aiguille dans la botte de foin en quête de l’aiguille dans un tas de bottes de foin. »

Le mardi marqué par cette annonce, Thorn et All Tech Is Human ont publié un nouveau papier intitulé « Safety by Design for Generative AI: Preventing Child Sexual Abuse », mettant en lumière des stratégies et des recommandations pour prévenir l’utilisation néfaste de l’IA génétrative. Parmi les suggestions, demander aux entreprises de trier méticuleusement les données utilisées pour entraîner les modèles d’IA pour éviter toute inclusion de matériel CSAM.

Thorn exhorte également les plateformes de médias sociaux et les moteurs de recherche à supprimer les liens vers des sites et applications permettant de « nudifier » des images d’enfants, une pratique abjecte menant à la création de nouveau matériel CSAM généré par IA. L’afflux de ce contenu, selon le rapport, compliquera l’identification des véritables victimes d’abus sexuels sur mineurs – aggravant ainsi le « problème de la botte de foin », en référence à la masse de contenu que les autorités doivent déjà filtrer.

Rebecca Portnoff, vice-présidente de la science des données chez Thorn, a partagé avec le Wall Street Journal : « Ce projet a été conçu pour démontrer clairement qu’on ne doit pas simplement baisser les bras. » Un sentiment qui résume bien l’objectif de cette initiative : rediriger le cap de cette technologie pour que ses potentiels préjudices soient neutralisés.

Certains acteurs du secteur ont déjà commencé à isoler les images, vidéos et audios impliquant des enfants des ensembles de données contenant du contenu pour adultes, pour empêcher leurs modèles de mélanger les deux. Cependant, l’ajout de filigranes pour identifier le contenu généré par IA est loin d’être infaillible, car ces marques d’eau et métadonnées peuvent être facilement supprimées.

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.