« Dans le monde merveilleux de la tech, même Pinocchio aurait du mal à distinguer le vrai du faux! » – voilà une pensée qui pourrait bien résumer l’esprit derrière le lancement de NIST GenAI par le National Institute of Standards and Technology (NIST).
Le NIST, cet organisme qui carbure à l’innovation pour les entreprises, le public, et surtout pour le gouvernement des États-Unis, vient d’inaugurer NIST GenAI, le nouveau chevalier blanc dans la lutte contre les deepfakes et autres joyeusetés générées par IA. Au menu : des bancs d’essai pour jauger les IA génératives, sans oublier un zeste de détection d’authenticité pour épicer le tout.
Cette initiative vise à mettre en place des défis à résoudre pour évaluer doigts dans le nez les capacités et lacunes des technologies IA génératives, histoire d’assurer une certaine intégrité de l’info et favoriser une utilisation responsable du contenu digital.
« Combattre le faux, c’est bien, mais encore faut-il le détecter avec précision ! »
Le premier défi de NIST GenAI ? Élaborer des systèmes capables de distinguer avec brio une création humaine d’une production IA, en commençant par le texte. Les équipes des universités, de l’industrie et des laboratoires de recherche sont donc conviées à soumettre leurs « générateurs » ou « discriminateurs ». Mandat simple : les premiers doivent concocter des résumés de 250 mots max, tandis que les seconds joueront aux détectives de l’AI.
L’équité, c’est le maître-mot ici. Pour cela, le NIST GenAI fournira les données nécessaires à la mise à l’épreuve des générateurs. Mais attention, les tricheurs seront priés de passer leur chemin : seuls les systèmes éduqués dans le respect des lois seront acceptés.
Quant aux inscriptions, elles ouvriront leurs portes le 1er mai, donnant le coup d’envoi à un marathon qui verra ses résultats finaux publiés en février 2025. C’est un peu comme attendre le Père Noël, mais pour la science.
Avec le lancement de NIST GenAI et son étude focalisée sur les deepfakes, on s’attaque de front à la prolifération exponentielle des infos biaisées ou carrément fausses produites par IA. Selon Clarity, une boîte de détection des deepfakes, c’est une augmentation de 900% de ces créations qu’on a pu observer cette année par rapport à l’année dernière. De quoi donner des sueurs froides.
Cette initiative s’inscrit en réponse au décret du président Joe Biden exigeant plus de transparence de la part des boîtes d’IA, tout en posant de nouveaux jalons, notamment pour le marquage du contenu généré par IA. En ces temps incertains, une lueur d’espoir se profile, accompagnée par la nomination controversée de Paul Christiano, ancien chercheur chez OpenAI, au sein de l’institut de sécurité IA du NIST. Bien qu’accueilli avec une certaine réticence pour ses vues « doomeristes », son arrivée promet de pimenter le débat sur l’avenir de l’IA.
Source : Techcrunch