man in blue crew neck shirt wearing black vr goggles

Credits image : Maxim Tolchinskiy / Unsplash

Technologie
0

Est-ce que les nouvelles lois californiennes sur l’IA pourront vraiment protéger la société ?

Que se passe-t-il lorsque l’État le plus avancé en matière de technologie décide de légiférer sur l’intelligence artificielle ?

Le gouverneur de Californie, Gavin Newsom, a récemment signé plusieurs lois visant à réglementer le secteur de l’intelligence artificielle, dont certaines des plus strictes aux États-Unis. Mais que signifient vraiment ces nouvelles règles pour la technologie et la société ? Trois de ces lois ciblent spécifiquement les deepfakes susceptibles d’influencer les élections. Comment ces mesures peuvent-elles impacter l’intégrité des processus électoraux futurs ?

Le communiqué de presse de Newsom souligne l’importance de cette démarche : « La Californie, qui abrite la majorité des entreprises leaders mondiales de l’IA, travaille à exploiter ces technologies transformationnelles pour aider à résoudre des problèmes urgents tout en étudiant les risques qu’elles présentent. » Néanmoins, comment ces lois s’appliqueront-elles dans la réalité quotidienne des utilisateurs et des entreprises de technologie ?

Par exemple, la loi AB 2655 oblige des plateformes en ligne importantes comme Facebook et X à étiqueter ou retirer les deepfakes liés aux élections. Quelles seront les mécanismes et les procédures pour garantir une mise en œuvre efficace de cette loi ? Et les candidats ou élus disposeront-ils des recours suffisants en cas de non-respect par ces plateformes ?

Newsom vise à répondre aux préoccupations les plus extrêmes autour de l’IA.

Une autre loi, 2355, impose l’obligation de divulguer toute publicité politique générée par l’IA. Comment ces nouvelles exigences affecteront-elles les stratégies de campagne, notamment en ce qui concerne la diffusion de contenus potentiellement trompeurs ? La FCC a déjà proposé une exigence similaire au niveau national et interdit les appels automatiques utilisant des voix générées par l’IA. Cela marque-t-il le début d’une régulation plus stricte à travers le pays ?

Les deux dernières lois signées mardi ont un impact particulièrement important dans l’industrie médiatique de Californie. Les studios doivent désormais obtenir l’autorisation des acteurs avant de créer des répliques générées par l’IA de leur voix ou de leur image. Toutefois, comment cela affectera-t-il les productions futures et les relations entre les acteurs et les studios ? Et pourquoi est-il crucial de protéger également l’image des performeurs décédés?

Le gouverneur Newsom envisage encore de signer 38 projets de lois liés à l’IA, dont le très controversé SB 1047. Lors d’une conférence avec le PDG de Salesforce, Marc Benioff, Newsom a exprimé ses inquiétudes concernant l’impact potentiel de cette législation sur l’écosystème de l’IA open source. Quelles seront les répercussions de cette loi sur l’innovation et la collaboration dans ce domaine ?

Comment la Californie pourra-t-elle jongler entre les risques démontrables et hypothétiques de l’IA pour créer un cadre réglementaire équilibré ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.