green christmas tree with baubles

Credits image : Maria Kolcheva / Unsplash

Intelligence ArtificielleSociétéTechnologie
0

L’IA est-elle vraiment sécurisée ?

Est-ce que l’Intelligence Artificielle (IA) est réellement sécurisée ? Avec l’omniprésence des préoccupations concernant l’IA générative, Google nous interroge avec l’extension de son programme de récompenses pour la découverte de failles (VRP), focalisé spécifiquement sur les attaques d’IA et les occasions pour la malveillance. Qu’est-ce qui change ? Les nouvelles lignes directrices détaillent précisément quelles découvertes sont éligibles pour les récompenses et lesquelles sont hors du champ d’application.

Google précise que découvrir l’extraction de données d’entraînement qui divulgue des informations privées, sensibles, est éligible, mais dans la mesure où elles exposent uniquement des données publiques, non sensibles, alors ça ne serait pas admissible. L’année dernière, Google a récompensé les chercheurs en sécurité à hauteur de 12 millions de dollars pour leurs découvertes en matière de bugs. Des questions subsistent cependant : tous les aspects de l’IA sont-ils examinés de manière adéquate ?

« L’expansion du VRP incitera les recherches sur la sécurité de l’IA, et mettra en évidence les potentiels problèmes pour finalement rendre l’IA plus sûre pour tous » – Google

Avec les différentes préoccupations de sécurité que présente l’IA par rapport à leur autres technologies — tels que la manipulation de modèles et les biais injustes — a-t-on besoin de nouvelles orientations pour refléter cela ? « Nous pensons que l’expansion du VRP incitera les recherches sur la sécurité de l’IA, et mettra en évidence les potentiels problèmes pour finalement rendre l’IA plus sûre pour tous », a déclaré la société dans une déclaration. Elle ajoute : « Nous étendons également notre travail de sécurité en open source pour rendre l’information sur la sécurité de la chaîne d’approvisionnement de l’IA universellement accessible et vérifiable ».

Cela soulève-t-il de nouvelles interrogations sur l’avenir de la sécurité de l’IA ? Plus tôt cette année, des entreprises d’IA, y compris Google, se sont rassemblées à la Maison Blanche, s’engageant à une plus grande découverte et sensibilisation aux vulnérabilités de l’IA. L’élargissement du VRP de la société intervient également avant un ordre exécutif « radical » du Président Biden soi-disant programmé pour le lundi 30 octobre, qui créerait des évaluations strictes et des exigences pour les modèles d’IA avant toute utilisation par les agences gouvernementales. Qu’en est-il donc de la régulation et de la standardisation de l’IA ?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.