man in blue crew neck shirt wearing black vr goggles

Credits image : Maxim Tolchinskiy / Unsplash

Intelligence Artificielle
0

Quel avenir pour la régulation de l’IA aux États-Unis ?

Les États-Unis peuvent-ils réellement réguler l’Intelligence Artificielle? Cette question demeure familière pour de nombreux observateurs du domaine technologique. Alors que des progrès notables ont été réalisés par les décideurs politiques ces derniers mois, des revers importants illustrent la complexité d’instaurer des lois autour d’une technologie en constante évolution.

En mars, le Tennessee a ouvert la voie en protégeant les artistes contre le clonage vocal non autorisé par l’IA, suivi par le Colorado cet été avec une approche basée sur les risques. En septembre, le gouverneur de la Californie, Gavin Newsom, a promulgué plusieurs lois sur la sécurité liées à l’IA, autorisant la transparence dans l’entraînement des AI. Mais pourquoi n’existe-t-il pas encore une politique fédérale aussi structurée que celle de l’UE?

Les initiatives à l’échelle de l’État, bien que prometteuses, butent souvent sur des obstacles majeurs. Le veto du gouverneur Newsom sur le projet de loi SB 1047, malgré son objectif de sécurité et de transparence, en est un exemple frappant. Que signifie cela pour les entreprises qui développent et distribuent des technologies de l’IA de manière responsable?

L’ombre d’une régulation fédérale plus concise plane, mais combien de temps avant qu’elle ne devienne réalité?

Néanmoins, tout n’est pas sombre. Jessica Newman, co-directrice de l’AI Policy Hub de UC Berkeley, souligne que certains textes fédéraux existants peuvent déjà s’appliquer indirectement à l’IA. Des lois sur la protection des consommateurs ou contre la discrimination, bien qu’initialement non destinées à l’IA, en sont des exemples pertinents. Est-ce suffisant pour encadrer une industrie qui croît à une vitesse vertigineuse?

Le gouvernement fédéral, à travers des actions telles que la déclaration des robocalls à voix IA comme illégaux, montre une volonté de s’attaquer aux défis posés par l’IA. Pourtant, une ordonnance exécutive signée par le président Biden ne semble pas à elle seule offrir une sécurité durable, étant sujette à des modifications politiques.

Doit-on s’attendre à une véritable concertation inter-états pour un compromis fédéral? Malgré l’optimisme apparent de certains acteurs, comme Scott Wiener, dont le projet de loi SB 1047 visait à sensibiliser avant de voir un rejet cinglant des entreprises tech, la route à suivre est loin d’être tracée.

Face à l’incertitude politique, des moteurs de changement comme Anthropic avertissent des dangers imminents, appelant à une régulation dans les 18 prochains mois. Mais quelle sera la réponse de géants comme Microsoft et d’influenceurs notables qui s’opposent fortement à des régulations qui pourraient entraver leurs intérêts financiers?

Avec près de 700 projets de législation introduits par les états cette année, la pression pour harmoniser ce patchwork croissant ne fait que s’accentuer. Est-il temps pour une véritable politique IA commune aux États-Unis, et si oui, sous quelles formes et conditions se dessinerait-elle?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.