a room with many machines

Credits image : ZHENYU LUO / Unsplash

Intelligence Artificielle
0

Les voix IA dans les robocalls sont-elles désormais hors-la-loi?

La guerre incessante contre les appels automatisés indésirables, a-t-elle finalement trouvé une nouvelle arme avec la décision de la FCC de catégoriser les voix générées par l’intelligence artificielle comme « artificielles », rendant ainsi leur utilisation dans des escroqueries téléphoniques définitivement illégale? Peut-être pas une solution définitive, mais cela ne ferait pas de mal non plus?

Cette nouvelle règle, qui n’est pas si nouvelle que cela puisqu’elle s’appuie sur l’Acte de Protection du Consommateur Téléphonique (TCPA), définit légèrement les contours de ce qui est déjà interdit: les messages artificiels et préenregistrés envoyés à tout va. Mais que dirait-on d’une voix de synthèse, produite par une IA, qui duplique une voix humaine? Cela tombe-t-il sous le coup de la même interdiction?

L’incident de la semaine dernière, qui impliquait une imitation AI du président Biden invitant les citoyens à ne pas « gaspiller leur vote », a soulevé la question de savoir si ces opérations ombreuses, utilisant des voix d’IA, étaient légalement répréhensibles. Quelle crédibilité accorder à ces opérations? Doivent-elles être interdites de manière plus explicite?

La FCC clarifie à présent explicitement que l’usage d’une voix générée par l’IA est illégal dans le cadre d’appels automatisés.

Le cas évoqué précédemment n’aurait même pas nécessité cette nouvelle précision, car il constitue déjà une infraction en tant qu’appel automatisé illégal. Mais en quoi les preuves disponibles vont-elles aider à rendre justice et à renforcer la légalité?

Pourquoi, avant cette clarification, utiliser un clone vocal IA de n’importe quelle personnalité pour passer des appels automatisés n’était-il pas spécifiquement interdit? Et comment cette nouvelle réglementation peut-elle se centraliser sur le cas particulier des appels automatiques sans pour autant restreindre des usages légitimes et consentis de l’intelligence artificielle?

Voici un extrait de la décision de la FCC:

Notre décision dissuadera les utilisations négatives de l’IA et s’assurera que les consommateurs soient pleinement protégés par le TCPA lorsqu’ils reçoivent de tels appels… Nécessiter le consentement pour de tels appels donne aux consommateurs le droit de ne pas recevoir ces appels ou, s’ils les reçoivent, la connaissance qu’ils doivent être prudents à leur sujet.

N’est-ce pas une leçon intéressante sur la flexibilité des concepts juridiques et leur capacité d’adaptation? Si la FCC ne peut changer les définitions arbitrairement, quels sont donc les mécanismes qui lui permettent d’agir une fois le besoin établi?

Une décision imminente de la Cour Suprême pourrait-elle réellement remettre en cause cette capacité d’action des agences réglementaires américaines? Et dans le cas où l’on finirait par recevoir un de ces appels indésirables, que pourrait-on faire pour lutter efficacement contre ces escroqueries?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.