Quel est l’avenir de la régulation de l’intelligence artificielle et sur quels paramètres devrions-nous concentrer notre attention ? Cette question complexe se pose alors qu’un récent rapport élaboré par un groupe de réflexion en Californie, co-dirigé par Fei-Fei Li, une pionnière de l’IA, suscite le débat sur les défis que représente la régulation de cette technologie en pleine expansion.
Le rapport provisoire de 41 pages publié récemment par le Joint California Policy Working Group sur les modèles d’IA de pointe, lancé par le gouverneur Gavin Newsom après son veto sur le projet de loi controversé SB 1047, préconise que la réglementation des IA doit anticiper des risques « non encore observés ». Pourquoi le gouverneur a-t-il senti la nécessité d’une évaluation plus complète des risques liés à l’IA?
Cette initiative, à laquelle ont participé des acteurs variés tels que la doyenne du Collège de l’informatique de Berkeley, Jennifer Chayes, et le président de la Carnegie Endowment for International Peace, Mariano-Florentino Cuéllar, cherche à instaurer plus de transparence dans les laboratoires d’IA de pointe comme OpenAI. La question de la transparence dans le développement des modèles d’IA devient alors centrale : comment garantirions-nous que ces acteurs partagent leurs méthodes de tests et leurs pratiques sécuritaires ?
La transparence et la prudence pourraient-elles réellement prévenir des catastrophes à l’échelle mondiale ?
Selon le rapport, des mesures législatives sont essentielles pour contraindre les développeurs de modèles d’IA à divulguer publiquement leurs tests de sécurité, ainsi que leurs méthodes d’acquisition de données et leurs mesures de sécurité. Comment établir les normes nécessaires pour des évaluations impartiales et protéger les lanceurs d’alertes au sein de ces entreprises ?
Curieusement, bien que le rapport ne préconise aucune loi spécifique, il a été bien accueilli des deux côtés du spectre politique de la réglementation de l’IA. Un chercheur en IA de l’Université George Mason, Dean Ball, a même salué cette initiative comme étant un « pas prometteur » pour la réglementation californienne. Est-ce que cela indique une évolution positive pour le débat autour de la gouvernance de l’IA ?
Ce rapport semble s’aligner avec certains aspects des projets de loi SB 1047 et SB 53, introduits par le sénateur de l’État de Californie, Scott Wiener, qui prônent des rapports réguliers des tests de sécurité effectués sur les modèles d’IA. Serait-ce le début d’un changement significatif dans la manière dont nous concevons la régulation de l’IA dans un monde de plus en plus numérique ?
Alors que la date de publication du rapport final est prévue pour juin 2025, nous nous interrogeons : serons-nous prêts à affronter les éventualités que pourrait réserver un avenir influencé par l’IA sans cadre réglementaire adéquat ?
Source : Techcrunch