Comment YouTube gère-t-il la montée en puissance du contenu généré par l’IA sur sa plateforme? Meta n’est pas la seule entreprise à confronter ces défis. Au mois de juin, YouTube a discrètement changé sa politique pour permettre aux utilisateurs de demander la suppression de contenu généré par l’IA qui simule leur visage ou leur voix. Qu’est-ce que cela signifie pour les créateurs de contenu et les utilisateurs?
La plateforme permet désormais aux personnes concernées de demander la suppression de ce type de contenu en tant que violation de la vie privée, plutôt qu’en raison de son caractère trompeur, comme dans le cas des deepfakes. Cependant, cette demande doit venir directement des individus concernés, avec quelques exceptions comme les mineurs ou les personnes décédées. Comment cette décision affectera-t-elle le comportement des utilisateurs de YouTube?
Toutefois, il est crucial de noter que la simple soumission d’une demande de suppression ne garantit pas que le contenu sera retiré. YouTube se réserve le droit de juger la plainte sur une multitude de facteurs. Parmi ceux-ci, le contenu est-il clairement identifié comme étant généré par une IA? Identifie-t-il une personne de façon unique? Peut-il être considéré comme une parodie ou une satire? Et surtout, est-ce dans l’intérêt public? Il est particulièrement inquiétant de penser à l’impact potentiel des contenus générés par l’IA lors des années d’élections.
L’impact des contenus générés par l’IA sur les élections pose de nombreuses questions.
YouTube accorde également un délai de 48 heures aux créateurs pour réagir à la plainte. Si le contenu est supprimé avant ce délai, la plainte est classée sans suite. Sinon, YouTube entame une révision. Il est aussi possible pour les créateurs de flouter les visages ou de supprimer des informations personnelles, mais rendre la vidéo privée ne suffit pas pour se conformer aux demandes.
Pourquoi YouTube n’a-t-il pas largement communiqué ce changement de politique? Cela pourrait s’expliquer par l’introduction d’outils dans Creator Studio en mars, permettant aux créateurs de divulguer la création de contenu réalisé avec des médias synthétiques ou génératifs par une IA. Plus récemment, YouTube a testé une fonctionnalité permettant aux utilisateurs d’ajouter des notes contextuelles sur les vidéos, comme l’indication qu’une vidéo est une parodie ou qu’elle est trompeuse d’une certaine manière.
Il est clair que YouTube n’est pas opposé à l’utilisation de l’IA. La plateforme a elle-même expérimenté des fonctionnalités de génération d’IA, comme un résumé des commentaires et un outil de conversation pour poser des questions concernant une vidéo. Cependant, même avec une étiquette indiquant qu’un contenu est généré par l’IA, cela n’empêche pas automatiquement sa suppression si cela enfreint les directives communautaires de YouTube.
En cas de plainte pour atteinte à la vie privée, YouTube n’imposera pas immédiatement des sanctions aux créateurs de contenu. Un représentant de l’entreprise a récemment partagé sur le site de la communauté YouTube que les violations de la vie privée sont distinctes des infractions aux directives communautaires, et qu’une plainte pour atteinte à la vie privée n’entraîne pas automatiquement une sanction. Cependant, si un compte accumule des violations répétées, des mesures plus sévères peuvent être prises.
Que signifie réellement cette nouvelle politique pour l’avenir des interactions entre les créateurs et le public sur YouTube? À quoi ressemblerait l’écosystème de la plateforme si les règles sur le contenu généré par l’IA étaient plus strictes? Il est certain que l’équilibre entre l’innovation technologique et la protection de la vie privée des utilisateurs est un sujet complexe et en constante évolution.
Source : Techcrunch