woman in black and white dress sitting on bed

Credits image : Barbara Zandoval / Unsplash

Technologie
0

Un projet de loi délicat, entre cauchemar électronique et éveil technologique

« L’intelligence artificielle est le futur… jusqu’à ce qu’elle nous remplace par des grille-pain plus intelligents. » – Un geek anonyme, probablement.

L’Assemblée californienne vient tout juste de secouer le cocotier de l’IA en votant le fameux projet de loi SB 1047, destiné à prévenir les catastrophes causées par des modèles d’IA géants. Notre cher gouverneur Gavin Newsom doit désormais décider s’il prend un risque futuriste digne de « Terminator » ou s’il freine des quatre fers pour protéger l’essor de l’IA en Californie. Le tic-tac est en marche, Newsom a jusqu’au 30 septembre pour trancher.

Le projet de loi, proposé par le sénateur Scott Wiener, a un objectif clair : empêcher que des modèles d’IA monstrueux ne créent des dommages à hauteur de 500 millions de dollars ou plus, ou pire encore, ne provoquent des pertes de vies humaines. Imaginez un programme d’IA qui décide que seuls les chats méritent de vivre – ça donne des sueurs froides, non?

Faisons les choses claires, malgré la panique ambiante, très peu de modèles d’IA actuels atteignent cette échelle. Oui, l’IA n’a pas encore lancé de cyberattaques cataclysmiques, mais qui peut prédire ce que les circuits imprimés et algorithmes nous réservent à l’avenir? Pour prévenir ces apocalypses technologiques, SB 1047 prévoit de rendre les développeurs d’IA responsables de leurs créations, un peu comme rendre les fabricants d’armes à feu responsables des fusillades.

Un « kill switch » pour l’IA? Voilà qui va faire suer plus d’un robot!

Si la loi est adoptée, elle pourrait remodeler l’industrie de l’IA américaine, mais comme souvent, tout dépend du coup de stylo final du gouverneur. Il pourrait écouter des voix comme celle d’Elon Musk, un optimiste prudent concernant ce projet de loi, ou la sage Sophia Velastegui, ex-chef de l’IA chez Microsoft, qui pense que SB 1047 est un bon compromis.

Pourtant, toute la Silicon Valley n’est pas au diapason. Le bruit des manifestants technologiques résonne fort et clair. Des organisations comme OpenAI, des groupes de commerce de Big Tech et même la Chambre de commerce américaine supplient Newsom de jeter le projet de loi aux oubliettes. Selon eux, ce changement de paradigme sur la responsabilité pourrait étouffer l’innovation en Californie aussi vite qu’un bug logiciel lors d’une démo en direct.

Mais imaginons que SB 1047 devienne une loi. À partir du 1er janvier 2025, les entreprises technologiques devront rédiger des rapports de sécurité pour leurs modèles d’IA. D’ici 2026, un « Board of Frontier Models » sera créé pour superviser tout ce petit monde et leur prodiguer de sages conseils. C’est à partir de ce moment-là que les choses sérieuses commenceront avec des audits et des sanctions pour ceux qui jouent dangereusement avec leurs circuits imprimés.

Et si Newsom décide de mettre son veto? Eh bien, c’est OpenAI et consorts qui sabreront le champagne. Les régulateurs fédéraux prendront alors le relais, mais ne vous attendez pas à ce qu’ils courent à la vitesse de la lumière. Historiquement, ces derniers prennent le temps de la réflexion – et espérons-le, de l’innovation en collaboration avec les cerveaux de la tech.

Un projet de loi délicat, entre cauchemar électronique et éveil technologique

AI regulation

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.