a group of computers

Credits image : Google DeepMind / Unsplash

Intelligence ArtificielleRéseaux sociauxSociétéTechnologie
0

Les fausses images générées par l’IA peuvent-elles être une menace pour la société et l’économie ?

Est-il surprenant de constater que la combinaison de comptes Twitter vérifiés et de l’IA générative facilite la diffusion de fausses informations ? Lundi matin, une image apparemment générée par intelligence artificielle montrant une explosion au Pentagone a circulé sur Internet, même si cet événement ne s’est pas réellement produit.

En l’espace d’une demi-heure, l’image est apparue sur un compte Twitter vérifié appelé « Bloomberg Feed », que l’on aurait facilement pu confondre avec un véritable compte affilié à Bloomberg, d’autant plus qu’il avait un badge bleu. Ce compte a depuis été suspendu. Le réseau de presse contrôlé par l’État russe RT a également partagé l’image, selon des captures d’écran prises par des utilisateurs avant la suppression du tweet. Plusieurs comptes Twitter ayant des centaines de milliers d’abonnés, tels que DeItaone, OSINTdefender et Whale Chart, l’ont également partagée. Même une chaîne de télévision indienne a rapporté la fausse explosion du Pentagone. L’origine de cette fausse image et de cette fausse nouvelle n’est pas immédiatement claire.

Les enjeux sont plus élevés quand il s’agit d’une explosion dans un bâtiment du gouvernement.

Ce n’est pas la première fois qu’une fausse image trompe avec succès l’internet, mais les enjeux sont plus élevés lorsque l’événement fictif est une explosion dans un bâtiment du gouvernement américain, plutôt que le Pape portant un manteau Balenciaga. Certains ont avancé que cette fausse image pourrait être liée à un mouvement de 25 points de base du S&P 500, mais la baisse n’a pas duré longtemps et il est impossible de prouver qu’elle soit entièrement due à cette supercherie. L’incident soulève la question de savoir comment l’IA générative pourrait être utilisée pour manipuler le marché boursier à l’avenir – après tout, Reddit l’a déjà fait.

La désinformation est un problème aussi vieux que l’internet, mais la croissance simultanée de l’IA générative et l’évolution du système de vérification de Twitter créent un terreau particulièrement propice. Dès le départ, le plan d’Elon Musk, propriétaire de Twitter, de retirer le statut de vérifié aux comptes existants et de permettre à quiconque de payer pour ce symbole, a été un échec.

Même si l’on sait que les badges bleus n’indiquent plus la légitimité, il est difficile de rompre une habitude visuelle que l’on a cultivée pendant près de 15 ans: si l’on voit un compte appelé « Bloomberg Feed » avec un badge bleu qui parle d’une attaque sur le Pentagone, il est probable que l’on pense d’abord qu’il s’agit d’une information réelle. À mesure qu’il devient de plus en plus difficile de repérer les fausses images, nous continuerons à voir des fausses nouvelles comme celle-ci à l’avenir.

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.