person holding green and white round plastic container

Credits image : Mick Haupt / Unsplash

CryptoOrdinateursRéseaux sociauxTechnologie
0

OpenAI et la désinformation électorale : seront-ils à la hauteur ?

Que fait OpenAI pour prévenir la désinformation autour des élections mondiales, et notamment l’élection présidentielle américaine de 2024 ? L’entreprise a dévoilé ses plans pour renforcer la transparence de l’origine des informations en utilisant de la cryptographie, un système normalisé par la Coalition for Content Provenance and Authenticity, afin de tracer la provenance des images générées par DALL-E 3. Mais comment ce système va-t-il permettre de mieux détecter les images générées par l’IA et aider les électeurs à évaluer la fiabilité du contenu ?

Est-ce que cette méthode serait plus efficace que celle de DeepMind, qui consiste à marquer digitalement les images et l’audio générés par l’IA ? En effet, dans la stratégie de contenu électoral de Google publiée le mois dernier, ils présentent une technique similaire. Même Meta ajoute un filigrane invisible à son contenu généré par l’IA. Mais quand est-ce que Meta va partager sa stratégie pour combattre la désinformation liée aux élections ?

OpenAI collaborera avec des journalistes et des chercheurs pour évaluer son classificateur de provenance. Mais cette collaboration sera-t-elle suffisante pour lutter efficacement contre la désinformation ?

OpenAI prévoit également de collaborer avec des journalistes, des chercheurs et des plateformes pour recueillir des retours sur son classificateur de provenance. Qu’en est-il des utilisateurs de ChatGPT, qui verront apparaître des actualités en temps réel avec attribution et liens ? Sont-ils dirigés vers CanIVote.org pour des questions procédurales sur le vote ?

Fermant la porte à toute tentative d’usurpation via deepfakes et chatbots, OpenAI maintient toujours ses politiques actuelles. Mais qu’en est-il des contenus conçus pour fausser le processus de vote ou décourager le vote ? L’entreprise proscrit-elle réellement les applications construites pour le campagnage politique, et ses nouveaux GPT permettent-ils réellement aux utilisateurs de signaler de potentielles violations ?

Finalement, OpenAI déclare que les enseignements tirés de ces premières mesures pourraient être utilisés à une échelle mondiale si elles s’avéraient efficaces, mais cela reste un grand « si ». Quels seront les futurs développements et annonces d’OpenAI dans les mois à venir pour arriver à une stratégie globale ?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.