Est-ce possible d’identifier et de marquer les images générées par l’IA ? Google DeepMind, en partenariat avec Google Cloud, se pose la question et propose une solution avec le lancement d’un outil dédié à la tâche. Mais qu’en est-il vraiment ? Le nouvel outil, baptisé SnythID, est-il efficace pour toutes les images ou se limite-t-il uniquement aux images créées par le modèle de génération d’images de Google ?
SnythID, qui est disponible en version bêta pour certains utilisateurs de Vertex AI, la plate-forme de Google pour la création d’applications et de modèles IA, embarque un filigrane numérique directement dans les pixels d’une image. Un filigrane que l’œil humain ne peut pas forcément détecter mais qui ne passe pas inaperçu pour un algorithme. Oui mais, que faut-il comprendre des limitations de SnythID ? Pourquoi ne supporter que Imagen, le modèle de texte à image de Google, exclusivement disponible dans Vertex AI ?
« Être capable d’identifier le contenu généré par l’IA est crucial pour informer les gens quand ils interagissent avec des médias générés, et pour aider à prévenir la propagation de la désinformation. »
En effet, Google avait déjà annoncé précédemment qu’il incorporerait des métadonnées pour signaler les contenus visuels créés par des modèles IA génératifs. SnythID semble aller encore plus loin, mais est-ce réellement suffisant face aux risques engendrés par l’IA générative ? Comment Demonid aborde-t-il ces risques associés à la propagation d’informations erronées, que ce soit de manière intentionnelle ou non ?
SynthID offre-t-il des garanties suffisantes pour identifier ces images même après des modifications troublantes, comme l’ajout de filtres, le changement de couleurs ou la compression d’images ? Et comment ces deux modèles d’IA, un pour le marquage et un pour l’identification, fonctionnent-ils ensemble sur un ensemble d’images « diverses », comme le prétend DeepMind ?
Il est certain que SynthID, comme d’autres technologies qui ont été proposées, ne sera pas utile pour tout générateur d’image qui n’est pas Imagen, du moins pas dans sa forme actuelle. Et quand est-il de l’adoption de cette technologie par des tiers, en particulier ceux qui développent des générateurs d’images IA open source, qui manquent de nombreux garde-fous dans les générateurs protégés par une API ? DeepMind envisage-t-il sérieusement de rendre SynthID disponible à des tiers dans un proche avenir ?
Les techniques de marquage pour l’art génératif ne sont pas nouvelles, et certaines startups, comme la française Imatag, proposent des outils de marquage similaires à SynthID. Mais alors, pourquoi les entreprises technologiques sont-elles de plus en plus poussées à fournir un moyen de clarifier que les œuvres ont été générées par l’IA ? Ne serait-ce pas le signe d’un besoin crucial de transparence en matière de génération d’IA pour aider à combattre la désinformation ?
Pourtant, jusqu’à présent, un standard commun de marquage, tant pour la création que pour la détection de filigranes, semble rester insaisissable. Comment nous assurer que les filigranes seront effectivement détectés par les algorithmes ? Comment, également, faire face aux nombreuses manipulations d’image qui peuvent fausser la détection d’un filigrane ?
Source : Techcrunch