« Quand la technologie vous fait dire des choses que vous n’avez jamais dites ! » Voilà une phrase qui prend tout son sens alors que l’intelligence artificielle redéfinit les contours de l’authenticité vocale. Illustration sombre et glaciale : réussir un deepfake audio de Kamala Harris pour le prix d’un café !
Curieuse de découvrir l’outil Voice Changer de Cartesia, notre journaliste s’est surprise à faire ressurgir la voix de la vice-présidente américaine avec un réalisme déconcertant. Pour un tarif de cinq dollars et moins de deux minutes, un clone vocal a vu le jour à partir de quelques discours de campagne. Une démonstration inédite de ce que peut faire la génération AI à bon marché !
La facilité avec laquelle cette prouesse a été accomplie peut inquiéter. Bien que Cartesia impose de cocher une case attestant des bonnes intentions d’utilisation de leur outil, la porte reste grande ouverte aux mauvais esprits. Et c’est là que le bât blesse : aucune véritable sécurité n’est en place pour empêcher la création de deepfakes nuisibles.
La technologie peut tromper notre perception de la réalité, mais pas notre capacité à choisir ce que nous partageons.
Les suggestions fusent pour contrer ce raz-de-marée de désinformation. Certains experts souhaitent voir apparaître des filigranes invisibles permettant d’identifier les contenus générés par l’IA. Parallèlement, des lois comme l’Online Safety Act pourraient également servir de digue, bien que leur efficacité reste encore soumise au doute.
Alors, que faire pour ne pas sombrer dans cette mer d’illusion perpétuelle ? Sans être pessimiste (quoique !), il est crucial de garder un œil critique sur les contenus qui circulent en ligne. Nous gardons la main sur ce que nous choisissons de croire et de partager.
En guise de conclusion amusante : un deepfake bien mené, ça peut vous parler… trop littéralement ! Cette utilisation de l’IA vocale rappelle que la réalité est souvent plus étrange que la science-fiction. Allons au-delà des apparences : parfois un clone n’est que le reflet truqué de voix qui ne se taisent pas.
Source : Techcrunch