« L’Intelligence Artificielle, c’est un peu comme un feu de camp : à manipuler avec précaution, sinon ça crame. » Eh oui, chers lecteurs, la Californie s’empare d’un sujet brûlant avec son projet de loi SB 1047, et ça fait des étincelles à Silicon Valley ! Cette loi, prévue pour être votée fin août, vise à éviter que l’IA ne cause des désastres dantesques avant même qu’ils ne se produisent. Les intentions sont louables, mais les géants et petits poucets de la tech crient au feu.
Dans les bars branchés de San Francisco, le SB 1047 est le sujet de conversation du moment. Grosso modo, cette loi veut empêcher les modèles d’IA les plus costauds de déclencher des « dommages critiques » contre l’humanité. Pour illustrer, c’est comme si votre modèle d’IA préféré créait une arme de destruction massive ou menait une cyberattaque à 500 millions de dollars de dégâts—un bonheur pour les hackers d’aujourd’hui.
Et attention, pas question de viser n’importe quel algorithme ! Cette loi ne s’applique qu’aux mastodontes coûtant au moins 100 millions de dollars et utilisant 10^26 FLOPS. Une poignée de modèles sont dans le collimateur, comme GPT-4 d’OpenAI par exemple. Même les plus grands comme Google, Microsoft et Meta, qui comptent sur des projets titanesques, risquent de se retrouver sous les projecteurs.
Tout grand pouvoir s’accompagne de grandes responsabilités… ou du moins, d’un gros bouton d’arrêt d’urgence.
Prenons Meta, par exemple. Mark Zuckerberg a annoncé que la prochaine génération de Llama exigerait 10 fois plus de calculs, pile dans les clous du SB 1047. Le projet de loi ordonne aussi un « bouton d’arrêt d’urgence » pour tout modèle entrant dans cette catégorie, comme si chaque création d’IA était équipée de son propre fil rouge à couper en cas de pépin.
Maintenant, qui surveille tout ça ? Une nouvelle division californienne, la Frontier Model Division (FMD), sera le gourou de ces règles. Chaque modèle d’IA devra obtenir une certification, un peu comme le passeport de votre chien, sauf que là, le passeport est numérique et très sérieux. La division sera dirigée par une équipe mixte d’experts, avec pour mission de traquer les violations potentielles.
Mais ce projet n’enchante pas tout le monde. Des figures illustres comme Fei-Fei Li et Andrew Ng voient rouge. Selon eux, SB 1047 risque de saboter l’écosystème naissant de l’IA. Les critiques fusent aussi des startups inquiets que les mauvais acteurs soient moins impactés que les laboratoires d’IA innovants.
Les déconvenues économiques planent également. Des investisseurs comme a16z craignent que ce projet de loi serve de repoussoir à l’innovation. Les arguments fusent : protection de la liberté d’expression, du dynamisme entrepreneurial, et de la compétitivité mondiale. L’impact pourrait être aussi lourd qu’un crash d’IA non contrôlée.
Prochain arrêt ? Le vote de l’Assemblée californienne le 15 août. La législation ira-t-elle jusqu’au bout ou s’évaporera-t-elle dans le labyrinthe politique ? Suspens ! En tout cas, il faudra suivre de près cette saga qui, tout comme l’IA, pourrait prendre une direction totalement imprévue.
Et pour finir sur une note légère : entre feu vert et rouge à l’IA, croisez les doigts qu’ils n’oubli-ent pas le mode « orange » pour un peu de modération.
Source : Techcrunch