Les élections peuvent-elles encore être fiables à l’ère des deepfakes générés par IA? C’est la question que de nombreux observateurs se posent tandis que des milliards de personnes à travers le monde se préparent à voter cette année. Il semble que les démocraties les plus solides soient mises à l’épreuve par un déluge de désinformation AI- générée.
Au cœur de ce phénomène, une étude publiée par le Centre for Countering Digital Hate met en évidence l’augmentation exponentielle de la production de deepfakes en lien avec les élections, principalement sur X (anciennement Twitter), avec un taux croissant de 130% par mois. Mais qu’en est-il des autres plateformes? Et les mesures prises sont-elles suffisantes pour contrecarrer cette vague déstabilisatrice?
Les risques pour les grandes échéances démocratiques, comme l’élection présidentielle américaine, sont considérables. Les outils d’IA libres et facilement détournables, couplés à une modération des médias sociaux inadéquate, alimentent cette crise des deepfakes. Mais quelles sont réellement les capacités de ces générateurs d’images et leur facilite d’utilisation à des fins malintentionnées?
« Des études récentes démontrent une prise de conscience, mais est-ce suffisant pour anticiper et contrer efficacement le phénomène? »
Il est révélé que presque la moitié des deepfakes étudiés ont pu être générés malgré les politiques spécifiques contre la désinformation électorale. Des entreprises comme Midjourney, OpenAI et Microsoft ont instauré des garde-fous, mais une partie de leurs outils ont tout de même réussi à créer des deepfakes pertinents. Et Stability AI?
Cependant, si la création est une chose, la diffusion en est une autre. Les médias sociaux jouent un rôle prépondérant dans la propagation des deepfakes électoraux, avec des instances où des images truquées, comme celle de Donald Trump à un barbecue, reçoivent des centaines de milliers de vues sans être correctement marquées comme fausses. Comment ces plateformes gèrent-elles ce contentieux?
Pour contrer cette menace, des solutions sont proposées, oscillant entre l’adoption de cadres de réponse communs par les fournisseurs de générateurs d’images et l’imposition de législations pour une conception plus sûre et transparente des produits IA. Mais la coopération entre les plateformes d’IA, les médias sociaux et les décideurs politiques sera-t-elle assez rapide et efficace pour préserver l’intégrité des élections?
Avec une mobilisation de l’industrie et des régulateurs qui semble en marche, la question demeure : suffit-il d’agir maintenant pour protéger la démocratie face aux deepfakes politiques, ou est-il déjà trop tard? Il est impératif d’agir, mais le ferons-nous à temps?
Source : Techcrunch