woman in black and white dress sitting on bed

Credits image : Barbara Zandoval / Unsplash

Intelligence ArtificielleSociété
0

SB 1047 : Vaincre le coder pour mieux régner

« Les choses ne sont jamais ce qu’elles semblent être, sauf quand il s’agit d’IA… car là, elles sont souvent encore plus compliquées ! » – Un codeur anonyme.

Alors, accrochez-vous, chers lecteurs, car nous avons une saga tech digne des meilleures séries Netflix. Le Gouverneur de Californie, Gavin Newsom, a récemment dégainé son veto contre le projet de loi SB 1047, destiné à empêcher les mauvais acteurs d’utiliser l’IA pour causer des « dommages critiques » aux humains. Imaginez donc une loi passée par l’assemblée de l’État avec un score de 41-9, mais retoquée après que plusieurs organisations, dont la Chambre de Commerce, aient convaincu notre bon vieux Gavin. Les acteurs majeurs craignent pour leurs petits bijoux technologiques et ont soufflé sur les braises du veto.

SB 1047 avait pour ambition de rendre les développeurs d’IA responsables de l’adoption de protocoles de sécurité pour éviter des catastrophes. On parlait de mesures préventives telles que des tests, des évaluations externes, et même un bouton d’arrêt d’urgence pour les modèles d’IA. La facture de non-conformité ? Un joli minimum de 10 millions de dollars pour une première infraction et 30 millions pour les suivantes. Mais, attendez, ce n’est pas tout ! Le projet prévoyait aussi que seules les infractions ayant causé des dommages critiques pouvaient déclencher des poursuites, réduisant ainsi la marge de manœuvre de l’État. Oh, et n’oublions pas, ces règles s’appliquaient essentiellement aux modèles coûtant au moins 100 millions de dollars avec des capacités de calcul astronomiques.

Le gouverneur Newsom, cependant, n’était pas convaincu. Dans son message de veto, il affirme que le projet de loi est « bien intentionné » mais qu’il ne tient pas compte des contextes d’utilisation des systèmes d’IA. Selon lui, en ne ciblant que les gros systèmes de grande envergure, le SB 1047 pourrait donner une fausse impression de sécurité au public. « Des modèles plus petits et spécialisés peuvent émerger comme étant tout aussi, sinon plus, dangereux que ceux visés par le projet de loi » – c’était comme tenter de sécuriser un château fort en oubliant les donjons secrets.class= »wp-block-quote has-medium-font-size »>

En se concentrant uniquement sur les grands modèles coûteux, SB 1047 pourrait offrir une sécurité illusoire, négligeant les petites bombes potentiellement plus dangereuses.

class= »wp-block-quote has-medium-font-size »>

Une version précédente du projet de loi aurait créé une nouvelle division appelée « Frontier Model Division » pour superviser et faire respecter les règles. Mais, surprise ! Le projet de loi a été modifié pour placer la gouvernance entre les mains d’un conseil au sein de l’agence des opérations gouvernementales. Neuf membres désignés par le gouverneur et la législature de l’État – c’était comme donner les clefs du royaume à une bande de guerriers triés sur le volet.

Le parcours de ce projet de loi n’a pas été des plus tranquilles. Scott Wiener, sénateur de Californie et auteur du SB 1047, a exprimé son désir de devancer les catastrophes au lieu d’en attendre l’arrivée. Des chercheurs renommés tels que Geoffrey Hinton et Yoshua Bengio ont soutenu le projet, tout comme le Centre pour la Sécurité de l’IA, qui a lancé plusieurs alertes sur les risques liés à l’IA au cours de l’année passée. Malgré cet appui, Gavin n’était pas convaincu. « Nous ne pouvons pas attendre une catastrophe majeure pour agir », disait Newsom, tout en soulignant que tout cadre réglementaire doit évoluer au rythme de la technologie elle-même.

Evidemment, le projet de loi a rencontré une forte opposition dans le monde de la tech. Des grands noms comme Fei-Fei Li et Yann LeCun de Meta ont critiqué SB 1047 pour ses restrictions jugées drastiques. Les géants de la tech, regroupés sous une bannière commerciale, ont affirmé que cela pourrait freiner l’innovation et les développements futurs dans l’État. Venture Capital, Andreessen Horowitz et même des startups ont exprimé leurs inquiétudes quant aux charges financières inutiles. Les amendements qui ont adouci le projet de SB 1047 ne furent pas suffisants pour convaincre tout le monde.

En somme, SB 1047 est passé du statut de chevalier blanc de l’IA à celui d’un simple rêve utopique, laissant les acteurs de la tech mi-rassurés mi-paniqués pour l’avenir. Alors, cher lecteur, la conclusion de cette histoire est : avant de programmer le jugement final, il serait peut-être sage de ne pas mettre tous ses octets dans le même panier !

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.