“Les politiciens et les IA, même combat, protéger l’humanité!”
Imaginez un monde où les robots deviennent nos pires ennemis et décident de prendre le contrôle… ça ne vous rappelle pas un film ? Pourtant, la réalité pourrait dépasser la fiction si l’on n’y prend pas garde. La Californie, en mode super-héros, a décidé de passer à l’action avec le projet de loi SB 1047, destiné à prévenir les catastrophes causées par l’intelligence artificielle avant qu’elles ne se produisent. Et suspense, ce projet est sur le point de passer au vote final !
Bien qu’il semble difficile d’être contre un monde plus sûr, le projet SB 1047 s’est attiré les foudres des stars de la tech. Venture capitalistes, géants technologiques et startups crient à qui veut bien les entendre. Le Safe and Secure Innovation for Frontier Artificial Intelligence Models Act est devenu la vedette controversée de la saison législative. Mais pourquoi tout ce remue-ménage ?
Ce projet législatif impose aux développeurs des protocoles de sécurité rigoureux pour éviter que leurs IA ne deviennent des armes de destruction massive ou des cyberattaques colossales.
Mesurons l’impact avant de rêver d’un futur sans bugs.
Concrètement, SB 1047 cible les modèles IA monumentaux, type GPT-4 ou les futurs Meta’s Llama, coûtant au moins 100 millions de dollars à développer ! OpenAI, Google et Microsoft sont sur le grill. Mais attention, ce n’est pas terminé : même les modèles open source tombent sous la coupe de la loi si un autre développeur ne dépense pas trois fois plus pour créer un dérivé. Le projet de loi prévoit même un gros bouton rouge d’arrêt d’urgence pour calmer nos IA en cas de besoin.
La division Frontier Model (FMD) superviserait tout ce beau monde, avec une équipe de cinq personnes venant de l’industrie, des communautés open source et du milieu académique. Comme un bon vieux club des cinq, non? Plus sérieusement, cette dream team s’assurerait que les développeurs respectent les règles, et rapporterait les incidents sous 72 heures chrono. Si ces derniers manquent à leurs obligations, des amendes phénoménales jusqu’à 30 millions de dollars pourraient tomber.
Mais nos entrepreneurs de la vallée du silicium n’ont pas mis leur mouchoir de soie : SB 1047 menace l’innovation et la libre expression, disent-ils en chœur. L’opposition est dirigée par des noms aussi ronflants qu’a16z, sundar Pichai de Google ou encore Andrew Ng de Stanford. Fei-Fei Li, la “marraine” de l’IA, estime que cette loi mettrait en péril l’écosystème technologique américain.
Quant aux soutiens, ils ne sont pas en reste. Lobos des temps modernes comme Geoffrey Hinton et Yoshua Bengio, alias les “pères de l’IA”, appuient cette initiative tandis que Dan Hendrycks, directeur du Center for AI Safety, prône l’intérêt à long terme de cette loi pour prévenir des incidents tragiques. Drame ou happy end, l’avenir le dira !
L’ultime chapitre se déroulera le 15 août prochain, où le destin de cette loi sera scellé au Sénat californien. Suspense, encore !
Pour finir sur une note légère, espérons qu’il n’y aura pas de bugs et que tout le monde sera sur la même longueur d’onde… avant que l’IA ne devienne plus “intelligente” que nous !
Source : Techcrunch