Est-ce suffisant de lancer un fonds de 2 millions de dollars pour combattre les risques grandissants de l’IA et des «deepfakes» dans le but de protéger la démocratie comme l’ont annoncé Microsoft et OpenAI ?
Cette année, un nombre record de 2 milliards de personnes se rendra aux urnes dans une cinquantaine de pays. Mais quel impact l’IA aura-t-elle sur ces électeurs, notamment dans les communautés vulnérables qui pourraient être plus enclines à croire ce qu’elles voient sans remettre en question la véracité des informations?
Le développement de l’IA générative, incluant des chatbots populaires comme ChatGPT, a engendré un paysage menaçant entièrement nouveau avec l’essor des «deepfakes» conçus pour propager des désinformations. Doit-on craindre que l’accessibilité de tels outils permette à n’importe qui de créer des contenus truqués ciblant des personnalités politiques de haut rang?
La création d’un fonds de résilience sociétale par Microsoft et OpenAI est-elle la clé pour combattre efficacement la désinformation et renforcer l’éducation à l’IA dans les communautés vulnérables?
Tout récemment, la Commission électorale de l’Inde a exhorté les partis politiques à ne pas utiliser de deepfakes et autres désinformations dans leurs campagnes en ligne. Mais est-ce suffisant pour enrayer la propagation de la désinformation?
Dans cet environnement, toutes les grandes entreprises technologiques, y compris Microsoft et OpenAI, se sont engagées volontairement à contrer ces risques. Mais ces engagements suffiront-ils pour créer un cadre commun efficace contre les deepfakes réalisés spécifiquement pour tromper les électeurs?
Par ailleurs, certaines des principales compagnies spécialisées en IA ont commencé à imposer des restrictions dans leur logiciel pour atténuer ces risques. Google, par exemple, a déclaré qu’il ne permettrait pas à son chatbot Gemini AI de répondre aux questions concernant les élections. Meta limite également les réponses liées aux élections via son chatbot IA. Ces restrictions seront-elles efficaces pour prévenir la désinformation?
Plus tôt aujourd’hui, OpenAI a lancé un nouveau détecteur de deepfake pour les chercheurs en désinformation, conçu pour aider à identifier le contenu faux généré par son propre générateur d’images DALL-E, tout en rejoignant le comité directeur de la Coalition for Content Provenance and Authenticity (C2PA). Mais la création de technologies pour détecter les deepfakes est-elle la meilleure méthode pour lutter contre la désinformation?
Le « fonds de résilience sociétale » fait partie de cette initiative plus large pour une IA «responsable», Microsoft et OpenAI cherchant désormais à «pousser l’éducation et la littératie de l’IA parmi les électeurs et les communautés vulnérables». Microsoft affirme que ces subventions visent à favoriser une meilleure compréhension de l’IA et de ses capacités à travers la société. Par exemple, OATS utilisera sa subvention pour des programmes de formation destinés aux plus de 50 ans aux États-Unis, concentrés sur les aspects fondamentaux de l’IA. Teresa Hutson de Microsoft souligne que le lancement du fonds de résilience sociétale n’est qu’un pas vers l’engagement de Microsoft et OpenAI pour relever les défis dans le domaine de l’alphabétisation et de l’éducation à l’IA.
Source : Techcrunch