a close up of a red plastic container filled with food

Credits image : Google DeepMind / Unsplash

Intelligence ArtificielleSociétéTechnologie
0

Le Royaume-Uni peut-il sécuriser l’IA en s’implantant aux États-Unis ?

Comment le Royaume-Uni compte-t-il relever le défi de la sécurité de l’IA en collaboration avec les États-Unis ?

Alors que le sommet sur la sécurité de l’intelligence artificielle s’apprête à débuter à Séoul, en Corée du Sud, le Royaume-Uni, co-hôte de l’événement, intensifie ses propres efforts dans ce domaine. Quels sont les objectifs de cette initiative ? L’AI Safety Institute, une entité britannique créée en novembre 2023 pour évaluer et adresser les risques liés aux plateformes d’IA, annonce l’ouverture d’un deuxième site… à San Francisco.

Pourquoi choisir la Baie de San Francisco ? La région est le centre névralgique du développement de l’IA, abritant des géants comme OpenAI, Anthropic, Google et Meta. En signant un protocole d’accord avec les États-Unis pour collaborer sur les initiatives de sécurité de l’IA, le Royaume-Uni bénéficie d’une présence directe pour mieux comprendre et surveiller ces technologies. Michelle Donelan, secrétaire d’État britannique pour la science, l’innovation et la technologie, souligne l’importance de cette proximité pour faciliter la coopération.

Le Royaume-Uni voit dans la technologie et l’IA une opportunité majeure de croissance économique et d’investissement.

Peut-on dire que l’ouverture d’un site à San Francisco arrive à un moment opportun, surtout après les récents événements chez OpenAI autour de leur équipe de Superalignment ?

L’AI Safety Institute reste néanmoins une structure modeste avec seulement 32 employés pour l’instant. Face aux investissements colossaux des géants de l’IA, l’institut semble être un David face à plusieurs Goliath. Par contre, cet institut a marqué un coup en lançant récemment un ensemble d’outils, nommés Inspect, pour tester la sécurité des modèles d’IA fondamentaux. Suffiront-ils à garantir la sécurité ?

Donelan qualifie ce lancement de « phase un ». Actuellement, l’évaluation des modèles est une science en développement. Les entreprises ne sont pas légalement obligées de faire évaluer leurs modèles, ce qui rend cette démarche volontaire et incohérente. La question de savoir comment convaincre ces entreprises de participer demeure cruciale.

En vue du sommet de Séoul, l’objectif est de présenter Inspect aux régulateurs et de les convaincre de l’adopter. Phase deux n’est pas seulement de sécuriser l’IA, mais de la rendre sûre pour toute la société. Cette évolution ne peut-elle pas être perçue comme une étape vers une législation future ?

À plus long terme, Donelan estime que le Royaume-Uni devra éventuellement légiférer sur l’IA. Toutefois, comme déclaré par le Premier ministre Rishi Sunak, il est essentiel de d’abord bien comprendre les risques liés à l’IA. L’institut a souligné l’importance d’une approche internationale pour la recherche et l’évaluation des modèles. Peut-on dire que cette coopération internationale est la clé de la sécurité de l’IA ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.