Si l’Union européenne se positionne comme pionnière dans la régulation de l’intelligence artificielle, n’est-ce pas une manœuvre pour mieux anticiper les avancées technologiques ? En effet, l’accord politique récemment conclu par les législateurs européens concernant ce que l’on appelle le premier cadre réglementaire mondial pour l’IA inclut la possibilité pour la Commission de modifier les règles de l’UE sur l’IA pour rester à jour avec les développements dans ce domaine en constante évolution. Mais comment cette flexibilité s’inscrit-elle dans la stratégie globale de l’UE et quels en sont les éventuels effets secondaires sur l’innovation ?
Les législateurs ont fait le choix de termes génériques comme « modèles » et « systèmes » d’intelligence artificielle à dessein général plutôt que de reprendre les dénominations industrielles. Cela a-t-il pour but de rendre la loi à venir intemporelle ou est-ce là une tentative de circonscrire des technologies dont l’euphémisme des appellations cache mal la puissance et les risques potentiels ?
La capacité de l’UE à adapter sa réglementation au rythme du secteur de l’IA pourrait être cruciale pour maintenir la balance entre innovation et contrôle.
Mais quelles sont les implications concrètes de ce choix terminologique pour les grandes entreprises œuvrant dans le domaine, comme OpenAI avec son GPT-4, ou même ChatGPT ? L’approche de l’UE, qui distingue les GPAI (IA à dessein général) à faible et à haut risque, appliquera-t-elle une réglementation appropriée, rigoureuse pour les technologies à haut risque tout en permettant une certaine liberté nécessaire à l’innovation pour celles à faible risque ?
La barre fixée par l’UE pour considérer un GPAI comme ayant des « capacités d’impact élevé » est de 10^25 FLOPs, mais cette mesure est-elle adéquate ? Est-elle suffisamment préventive pour les modèles de pointe actuels ou se révèle-t-elle trop générale pour être efficace ? Et au-delà des chiffres, comment l’UE envisage de réviser cette mesure au fil du temps grâce à des actes délégués, en s’appuyant sur les conseils de l’Office de l’IA et d’un comité consultatif scientifique ?
Quelles seront les implications des nouvelles règles pour les créateurs de GPAI, en termes de réglementation proactive et d’obligations de transparence, notamment pour la question épineuse du watermarking des sorties génératives de l’IA ? Cela ne risque-t-il pas de poser des défis techniques importants, notamment en ce qui concerne la protection des droits d’auteur ?
Enfin, avec la mise en place de l’Office de l’IA, dont le budget et l’effectif restent indéfinis, l’Union européenne ne prend-elle pas le risque de sous-estimer les ressources nécessaires pour réguler efficacement les technologies avancées de l’IA ? Ne risque-t-on pas d’assister à un décalage entre les ambitions législatives et les moyens alloués à leur mise en œuvre ?
Comme l’intégralité du Règlement sur l’IA de l’UE ne sera pleinement opérationnel qu’à partir de 2026, comment l’UE compte-t-elle superviser les GPAI entre-temps ? Et quid de l’influence de ce règlement sur les usages de l’IA que l’UE qualifie d’irrecevables, tels que la notation sociale ou les pratiques d’extraction de visages à des fins de reconnaissance faciale ? Est-ce le début d’une ère de protection réelle ou le présage d’un champ de bataille législatif et technologique encore plus complexe ?
Source : Techcrunch