Quel impact auront les récents accords de partage de modèles d’IA entre OpenAI, Anthropic, et l’US AI Safety Institute sur l’industrie de l’intelligence artificielle ?
OpenAI et Anthropic ont récemment conclu des accords avec l’US AI Safety Institute. Ces accords prévoient le partage de leurs modèles d’IA, avant et après leur mise sur le marché, avec cet organisme créé par un décret exécutif du Président Biden en 2023. Mais qu’est-ce que cela signifie vraiment pour l’avenir de l’IA et sa régulation ?
Dans une déclaration, Elizabeth Kelly, directrice de l’US AI Safety Institute, souligne l’importance de ces accords. Selon elle, la sécurité est essentielle pour alimenter l’innovation technologique, et ces collaborations marquent un jalon important dans la gestion responsable de l’avenir de l’IA. Mais cette initiative est-elle suffisante pour garantir que les technologies d’IA seront utilisées de manière éthique et sécurisée ?
Les accords marquent un jalon pour garantir un avenir responsable pour l’IA.
L’US AI Safety Institute, partie intégrante du National Institute of Standards and Technology (NIST), publie des orientations et des tests de référence pour évaluer les systèmes d’IA potentiellement dangereux. Mais comment cet institut, en collaboration avec des géants de l’IA comme OpenAI et Anthropic, pourra-t-il vraiment atténuer les risques associés à cette technologie ?
Ces accords, formalisés par un Mémorandum d’Entente non contraignant, permettront à l’agence d’accéder aux nouveaux modèles majeurs des entreprises avant et après leur diffusion publique. Cependant, qu’en est-il des autres entreprises du secteur, comme Google, qui n’ont pas été mentionnées dans le cadre de cet accord ? Sont-ils également sous le radar de l’US AI Safety Institute ?
Aujourd’hui, régulateurs fédéraux et étatiques tentent d’établir des garde-fous pour une technologie encore embryonnaire. La récente approbation par l’assemblée de l’État de Californie d’un projet de loi sur la sécurité de l’IA souligne cette urgence. Ce projet de loi impose des tests de sécurité pour des modèles d’IA coûteurs ou nécessitant une puissance de calcul importante, et prévoit même des « interrupteurs » pour désactiver les modèles devenus incontrôlables. Mais ces efforts suffiront-ils à contenir les énormes défis de sécurité que pose l’intelligence artificielle ?
Contrairement aux accords fédéraux non contraignants, le projet de loi californien prévoit des mécanismes d’exécution plus stricts. Il donne au procureur de l’état le pouvoir de poursuivre les développeurs d’IA en cas de non-conformité, particulièrement lors d’événements menaçants. Alors que le gouverneur Gavin Newsom doit encore signer ce projet de loi avant le 30 septembre, reste à voir quelles seront ses décisions à venir.
Source : Engadget