« Le meilleur moyen de prédire l’avenir, c’est de l’inventer. » – Alan Kay. C’est avec cette sage citation que nous plongeons dans l’univers complexe et parfois déconcertant de l’intelligence artificielle. Les chercheurs de l’Observatoire Internet de Stanford nous éclairent sur une trouvaille pour le moins inquiétante : pas moins de 1,008 cas avérés de matériel d’abus sexuels sur enfants (CSAM) ont été découverts dans une base de données entraînant les outils de génération d’images par IA. On dirait bien que dans cette quête d’inventer le futur, certains algorithmes ont appris des choses qu’ils n’auraient jamais dû connaître!
LAION, l’organisation non lucratif à l’origine de ce fameux dataset, a rapidement pris les devants en déclarant à 404 Media avoir « une tolérance zéro pour le contenu illégal » et prévoir de remettre en ligne la base de données une fois purgée de tout élément douteux. Apparemment, avant même la publication des datasets, des filtres auraient été mis en place pour occulter tout contenu illicite, mais eh, « La meilleure-laid des filtres ne saurait filtrer l’erreur humaine, » murmurerait un adage de geeks poètes s’il existait. Des leaders de LAION étaient apparemment conscients depuis 2021 que le fléau du CSAM pouvait infester leurs collections d’images glanées sur le web.
Entre nous, le dataset LAION-5B est un peu l’armoire à glaces de l’IA : on y trouve des millions d’images allant du pornographique au violent, en passant par des mèmes racistes et de l’art protégé par le droit d’auteur. C’est une vraie caverne d’Ali Baba si Ali Baba était un algorithme avec un goût douteux. Christoph Schuhmann, le fondateur de LAION, avoue ne pas avoir eu vent de CSAM dans la base, mais soyons honnêtes, qui a le temps de fouiller dans 5 milliards d’images?
Une sombre découverte rappelle que le côté obscur de la force peut aussi infiltrer les datasets destinés à l’IA.
La loi américaine interdit généralement la consultation de CSAM à des fins de vérification. Qu’à cela ne tienne, les chercheurs de Stanford, dans un acte de bravoure numérique, ont utilisé des techniques telles que la détection par hash perceptuel et cryptographique, ainsi que l’analyse des plus proches voisins. Résultat des courses : 3,226 entrées suspectes de contenir du CSAM, dont beaucoup ont été confirmées par des entités comme PhotoDNA et le Centre canadien de protection de l’enfance. En gros, c’est un combo de technologies poussées au service d’une chasse aux sorcières 2.0.
Mais que serait un article techno sans un protagoniste nommé Google ou une IA révolutionnaire? Stability AI, le père de l’outil de génération d’images Stable Diffusion, a entraîné sa progéniture avec une portion de données LAION-5B. Google n’a pas été en reste avec son modèle Imagen. Bien sûr, Stability AI, tel un chevalier blanc, se défend en bloquant toute utilisation illégale de ses systèmes, edit de CSAM inclus. Moralité : on trie, on affine, on essaye de mitiger les « comportements résiduels », un peu comme on retiendrait un fléau avec du fil dentaire.
Pour finir sur une note moins chaotique, signalons que la version 2 de la Stable Diffusion, mieux filtrée, rend plus ardue la génération d’images explicites. Par contre, la 1.5, toujours accessible sur le web, n’est pas aussi verrouillée. Selon les auteurs de l’étude de Stanford, on devrait envisager de rendre obsolètes les modèles basés sur la Stable Diffusion 1.5, et de cesser leur distribution. L’aventure IA, malgré ses promesses d’un nouvel Eden numérique, nous rappelle qu’un Eden sans serpent serait comme une pizza sans fromage : impensable… Mais on aurait peut-être dû vérifier la garniture avant de la commander!
Source : Engadget