Quel est l’impact des modèles d’IA générative « open-weight » sur le paysage technologique actuel? Le Ministère du Commerce des États-Unis vient de publier un rapport favorable à ces modèles comme le Llama 3.1 de Meta, tout en recommandant le développement de nouvelles capacités gouvernementales pour surveiller les risques potentiels.
Pourquoi ce rapport soutient-il ces modèles ouverts? Selon le National Telecommunications and Information Administration (NTIA), les modèles « open-weight » rendent l’IA générative accessible à de petits entreprises, chercheurs, organisations à but non lucratif et développeurs individuels. Le gouvernement ne devrait pas limiter l’accès à ces modèles avant d’enquêter sur les conséquences potentielles de telles restrictions.
Les modèles ouverts favorisent la concurrence, mais nécessitent une surveillance accrue.
La présidente de la Commission FTC, Lina Khan, partage cette opinion, affirmant que ces modèles permettent à plus de petites entreprises d’innover, stimulent la concurrence et sont essentiels pour un écosystème technologique sain. Alan Davidson, secrétaire adjoint du Commerce pour les Communications et l’Information, soutient cette position et met en avant l’importance de surveiller activement les risques induits par la disponibilité de ces modèles.
Le rapport est publié tandis que des régulateurs, tant aux États-Unis qu’à l’étranger, envisagent des règles qui pourraient imposer de nouvelles exigences aux entreprises désirant publier des modèles ouverts. Par exemple, la Californie s’approche de l’adoption de la loi SB 1047, qui imposerait des obligations de cybersécurité accrues et la possibilité de « désactiver » des modèles si nécessaire. En Europe, l’AI Act de l’UE impose de nouvelles règles en matière de droits d’auteur, de transparence et d’applications d’IA.
Meta a déjà signalé que ces politiques européennes entraveraient la publication de certains modèles ouverts. De nombreuses startups et grandes entreprises technologiques s’opposent également à la loi californienne, la jugeant trop contraignante.
La philosophie de gouvernance du NTIA pour les modèles d’IA n’est pas totalement libérale. Le rapport recommande que le gouvernement développe un programme continu pour collecter des données sur les risques et les avantages des modèles ouverts, évaluer ces données et agir en conséquence, y compris en imposant certaines restrictions si nécessaire.
Ces mesures s’alignent sur un récent décret exécutif de Joe Biden visant à établir des normes pour la sécurité et la sûreté de l’IA. Gina Raimondo, secrétaire américaine au Commerce, affirme que l’administration Biden-Harris utilise tous les leviers possibles pour maximiser les promesses de l’IA tout en minimisant ses risques.
Le gouvernement américain réussira-t-il à trouver l’équilibre délicat entre innovation et régulation des modèles d’IA générative ouverts?
Source : Techcrunch