« L’intelligence artificielle, c’est comme la crème glacée: il y a toujours de la place pour un peu plus! » Facebook semble avoir pris ce dicton au pied de la lettre avec ses nouvelles aventures en IA. La plateforme connue pour ses algorithmes aussi futés qu’un chat sur le point de faire une bêtise vient d’étendre son expertise en apprentissage automatique à ses efforts publicitaires, à l’aide d’un ensemble expérimental d’outils d’IA générative qui va de la génération d’arrière-plans jusqu’à la création de légendes pour les vidéos des annonceurs. Toutefois, Reuters nous apprend que Meta a décidé de ne pas mettre ces outils entre les mains des publicitaires politiques, surtout à l’orée d’un cycle électoral national qui s’annonce aussi houleux qu’une saison des ouragans.
En somme, Meta décide de jouer la carte de la prudence électorale avec son IA. C’est un mouvement qui s’inscrit dans la tendance actuelle des médias sociaux. Et si certains, comme TikTok et Snap, bannissent purement et simplement les publicités politiques, Google quant à lui maintient une « liste noire de mots-clés » pour éviter que ses outils de publicité IA ne tombent dans le piège de l’oratoire politique. Quant à Twitter, eh bien, comme vous l’avez sans doute déjà vu, c’est un sacré zoo numérique depuis quelque temps.
« À barre ou à balles, Meta encadre sa politique d’IA avec prudence. »
Il y a cependant, accrochez-vous bien à vos souris, tout un éventail d’exceptions à cette règle qui interdit l’utilisation de vidéos générées par IA trompeuses. Meta permet quelques figures de style telles que la parodie et la satire. Pour illustrer, prenons le cas examiné par leur comité de surveillance indépendant qui a gardé en ligne une vidéo « modifiée » du président Biden, sous prétexte qu’elle n’avait pas été fabriquée par IA. Ça donne envie de retweeter « Ceci n’est pas une pipe », n’est-ce pas ?
En parlant de grand sérieux, Facebook, avec d’autres têtes pensantes de la Silicon Valley, a signé en juillet des engagements volontaires proposés par la Maison Blanche. Ces engagements visent à appliquer des politiques et des garde-fous techniques dans le développement de leurs systèmes d’IA générative futurs. Entre autres, cela inclut l’amplification des efforts type « red teaming » pour déjouer les mauvais comportements des modèles d’IA, partager des infos de confiance et de sécurité au sein de l’industrie et avec le gouvernement, et le développement d’un système de filigranes numériques pour authentifier le contenu officiel et clarifier qu’il n’est pas généré par IA.
Dans une époque où tout semble pouvoir être synthétisé, même les élections pourraient passer pour des œuvres d’art – de l’intelligence plutôt artificielle, on peut leur accorder ça! Mais chez Meta, « faux » ne signifie pas automatiquement « interdit », sauf quand cela risque de faire pencher la balance électorale. Alors, ils ont appuyé sur le bouton pause – un geste de modération qui semble dire « Halte-là, les robots, la politique est assez compliquée comme ça! » Alors, prêts à scroller vers la prochaine polémique ? Chez Meta, même l’IA doit passer par le détecteur de métaphores pour s’assurer qu’elle ne joue pas au chat et à la souris avec la démocratie… Non, l’IA ne peut pas encore nous gouverner, elle doit d’abord apprendre à ne pas faire de fautes de goût en marketing politique!
Source : Engadget