Quelle est l’efficacité réelle des mesures de sécurité mises en place par OpenAI pour contrer l’usage de ses technologies durant les élections ? Alors que DALL-E et ChatGPT, les célèbres outils d’intelligence artificielle d’OpenAI, suscitent une utilisation croissante, la question de leur sécurité en période électorale se pose avec acuité. Comment OpenAI parvient-elle à empêcher l’usage de ces outils pour des fins douteuses comme la création de deepfakes ?
OpenAI assure avoir empêché pas moins de 250 000 requêtes de création d’images présentant des figures politiques, notamment des images du Président Biden, de Donald Trump, ou encore de Kamala Harris, via son générateur DALL-E. Pourquoi une telle vigilance ? L’entreprise explique que ces mesures réactives résultent d’une stratégie mise en place pour que ChatGPT refuse de générer des images de personnes réelles ou politiques. Mais suffit-il de s’en remettre à ces mécanismes pour garantir la véracité des contenus mis en ligne ?
Depuis le début de l’année, OpenAI a déployé une stratégie bien définie pour les élections présidentielles américaines. Cette stratégie vise à limiter la propagande et les fausses informations diffusées par ses outils. Concrètement, ceci se traduit par la redirection automatique de certaines requêtes vers des sites d’information neutres comme CanIVote.org, ou encore l’Associated Press. ChatGPT, par exemple, a fourni un million de réponses menant à ce site dans le mois précédent les élections.
Ainsi, la question demeure : jusqu’à quel point peut-on compter sur la technologie pour préserver l’intégrité démocratique ?
Toutefois, DALL-E n’est pas l’unique générateur d’images existant. D’autres applications similaires continuent d’opérer, engendrant parfois des deepfakes faisant grand bruit sur les réseaux sociaux. Par exemple, une vidéo trafiquée de Kamala Harris proclamant des déclarations qu’elle n’a jamais faites a circulé, illustrant le potentiel nuisible de ces technologies. Que doit-on faire face à la prolifération de ces faux contenus ?
De plus, bien que les actions d’OpenAI soient louables, elles soulignent une vérité inquiétante : la lutte contre la désinformation par l’intelligence artificielle est loin d’être totalement maîtrisée. Cette bataille nécessitera-t-elle une collaboration internationale ou des régulations plus strictes pour englober toutes les entités œuvrant dans le domaine de l’IA ?
Face à l’ampleur des enjeux sécuritaires liés à la technologie, un dernier questionnement s’impose : quelles seront les futures démarches d’OpenAI et des autres entreprises pour garantir que l’IA ne soit pas détournée à des fins malveillantes durant les périodes sensibles comme celles des élections ?
Source : Engadget