OpenAI a-t-il franchi une ligne éthique en utilisant une voix ressemblant de près à celle de Scarlett Johansson pour son modèle ChatGPT ?
Cette semaine, OpenAI a annoncé la suspension de l’utilisation d’une des voix de son modèle GPT-4o après que de nombreux utilisateurs ont signalé la ressemblance frappante avec celle de l’actrice Scarlett Johansson. À quel point cette imitation était-elle intentionnelle ?
La situation a pris une tournure juridique lorsque Johansson a déclaré avoir engagé un avocat pour examiner l’origine de cette voix, estimant que celle-ci viole potentiellement ses droits. OpenAI défend sa position, affirmant que la voix appartient à une autre actrice professionnelle.
« OpenAI préserve la confidentialité de ses talents vocaux pour protéger leur vie privée. »
Mais pourquoi cette voix a-t-elle suscité tant de controverses ? Plusieurs internautes ont comparé cette voix séduisante au personnage de Johansson dans le film « Her ». Cette comparaison est-elle fortuite ou stratégique ?
La situation a empiré lorsque le PDG de OpenAI, Sam Altman, a tweeté un simple « her » après la démo, ce qui a alimenté encore plus les spéculations. Est-ce un clin d’œil intentionnel à Johansson ou une coïncidence malheureuse ?
Il a été confirmé que OpenAI avait contacté Johansson en septembre pour lui proposer de prêter sa voix au modèle, une offre qu’elle a refusée. Pourtant, la sortie de la voix « Sky » laisse penser à une tentative de recréation non autorisée. Alors, qui dit vrai dans cette bataille de déclarations ?
La société a finalement accepté de retirer la voix « Sky », mais cela soulève des questions fondamentales sur la protection des droits des artistes face à l’IA. Comment les entreprises technologiques peuvent-elles naviguer ces eaux troubles sans enfreindre les droits des individus ?
La déclaration officielle de Johansson souligne la nécessité d’une transparence totale et d’une réglementation appropriée pour protéger les droits individuels à l’ère des deepfakes. La réaction d’OpenAI aura-t-elle un impact durable sur l’utilisation des voix de synthèse ?
Quel avenir pour les voix de l’IA ? Allons-nous vers une régulation plus stricte ou une ère d’imitations controversées ?
Source : Techcrunch