Asimo robot doing handsign

Credits image : Possessed Photography / Unsplash

Intelligence ArtificielleTechnologie
0

Dioptra peut-elle réellement protéger nos IA des attaques malveillantes ?

Les tests de sécurité pour l’IA sont-ils vraiment à la hauteur de nos attentes ? Le National Institute of Standards and Technology (NIST), une agence du Département du commerce des États-Unis, a récemment relancé Dioptra, une plateforme conçue pour tester l’impact des attaques malveillantes sur les systèmes d’IA. Mais en quoi cette initiative est-elle cruciale pour le paysage technologique actuel ?

Le but premier de Dioptra est d’évaluer comment les attaques peuvent dégrader la performance des modèles d’IA. Cette plateforme est-elle le bouclier ultime contre les risques de l’IA ? Dioptra, open source et accessible à tous, entend aider aussi bien les entreprises que les agences gouvernementales à analyser et suivre les risques liés à l’IA. Comment les utilisateurs de l’IA peuvent-ils tirer parti de cette technologie pour assurer une évaluation plus rigoureuse de leurs systèmes ?

« Tester les effets des attaques sur les modèles d’apprentissage machine est l’un des objectifs de Dioptra », affirme le NIST. La gratuité de cet outil ouvre-t-elle réellement la voie à des évaluations de sécurité plus justes et transparentes ? Outre Dioptra, NIST a aussi publié des documents via l’AI Safety Institute pour mitiger les dangers potentiels de l’IA, comme son usage abusif pour créer de la pornographie non consensuelle.

Dioptra met en lumière les types d’attaques qui affectent les systèmes d’IA et quantifie leur impact.

Cette initiative n’est pas isolée. Elle s’inscrit dans le cadre d’une collaboration entre les États-Unis et le Royaume-Uni pour développer conjointement des tests avancés de modèles d’IA. Le président Joe Biden a également émis un ordre exécutif qui stipule que NIST doit aider avec les tests des systèmes d’IA et établir des normes de sécurité.

Mais ces efforts suffisent-ils pour garantir la sécurité des modèles d’IA ? Comme nous l’avons souligné, les benchmarks d’IA sont souvent insuffisants. Pourquoi les politiques actuelles permettent-elles aux vendeurs d’IA de choisir sélectivement les évaluations à réaliser ? Le récent rapport de l’Institut Ada Lovelace montre bien que les évaluations seules ne suffisent pas à déterminer la sécurité réelle des modèles d’IA en situation réelle.

NIST ne prétend pas que Dioptra peut éliminer totalement les risques. L’agence propose cependant que Dioptra peut identifier les types d’attaques susceptibles de dégrader les performances des systèmes d’IA. Cependant, une limitation majeure est que Dioptra ne fonctionne qu’avec des modèles téléchargeables locaux. Que fait-on des modèles les plus fermés comme GPT-4o de OpenAI, accessibles uniquement via une API ?

Alors que des outils comme Dioptra suscitent des progrès significatifs dans le test des systèmes d’IA, sommes-nous vraiment prêts à faire face aux défis de sécurité de l’IA dans le monde réel ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.