man in blue crew neck shirt wearing black vr goggles

Credits image : Maxim Tolchinskiy / Unsplash

Intelligence ArtificielleSociétéTechnologie
0

L’UE peut-elle vraiment réguler l’intelligence artificielle efficacement?

Comment l’Union européenne prévoit-elle de réguler l’intelligence artificielle pour le futur?

Depuis le 1er août 2024, la régulation basée sur les risques pour les applications d’intelligence artificielle par l’Union européenne est officiellement en vigueur. Cette régulation changera-t-elle la donne pour les développeurs d’IA?

Un calendrier de différentes échéances a été mis en place, imposant des interdictions sur certaines utilisations spécifiques de l’IA, comme la biométrie à distance utilisée par les forces de l’ordre dans les lieux publics, six mois après l’entrée en vigueur de la loi. Que signifient réellement ces échéances pour les différents acteurs de l’industrie?

La plupart des applications d’IA, classées comme sans ou faible risque, ne seront pas concernées par cette régulation. Cependant, qu’en est-il des secteurs à haut risque, tels que les logiciels médicaux basés sur l’IA ou les systèmes de reconnaissance faciale? Les développeurs dans ces domaines devront non seulement enregistrer leurs systèmes dans une base de données de l’UE, mais également respecter des obligations strictes de gestion des risques et de qualité.

Les développeurs d’IA devront affronter de nouveaux défis de conformité dès 2026.

En outre, une « catégorie à risque limité » comprend les technologies comme les chatbots et les outils susceptibles de créer des deepfakes. Ces technologies devront respecter des exigences de transparence pour s’assurer que les utilisateurs ne soient pas trompés. Est-ce que ces mesures seront suffisantes pour protéger le public?

Les amendes sont aussi modulées en fonction de la gravité des infractions, allant jusqu’à 7 % du chiffre d’affaires annuel global pour les violations les plus sérieuses. Ce système de pénalités est-il vraiment dissuasif?

Quant aux développeurs d’IA à usage général (GPAI), ils auront principalement des obligations de transparence. Les modèles les plus puissants devront également mener des évaluations et des mesures de mitigation des risques. Mais comment ces GPAI pourront-ils se conformer si les codes de conduite ne sont pas encore définis?

L’Office de l’IA de l’UE, qui supervise cette initiative, a lancé une consultation pour construire ces codes de conduite d’ici avril 2025. OpenAI, par exemple, a déjà prévu de collaborer étroitement avec l’Office de l’IA en vue de ces nouvelles directives. Mais cela suffira-t-il pour garantir une régulation efficace?

Le futur des technologies d’intelligence artificielle en Europe sera marqué par cette nouvelle régulation. Comment les entreprises s’y adapteront-elles?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.