a heart is shown on a computer screen

Credits image : Alexander Sinn / Unsplash

Intelligence ArtificielleRéseaux sociaux
0

Pourquoi l’IA de Meta génère-t-elle des réponses trompeuses sur des événements récents?

Pourquoi le chatbot IA de Meta a-t-il semé autant de confusion autour de l’attentat contre Trump? C’est la question que de nombreux utilisateurs du réseau social se posent. Meta a récemment expliqué pourquoi son IA a refusé de répondre aux questions sur cette tentative d’assassinat et a même, dans certains cas, nié que l’événement ait eu lieu. La raison? Il semblerait que l’IA de Meta ait été programmée pour ne pas répondre à des événements récents, souvent entourés de désinformation et de théories du complot.

Comment une IA peut-elle générer des « hallucinations » qui donnent des réponses fausses ou trompeuses? Meta affirme que ces erreurs découlent de données de formation inexactes et de la complexité à analyser plusieurs sources d’information. La société a actualisé les réponses de son IA, mais admet qu’elle aurait dû le faire plus tôt. Malgré cette mise à jour, le chatbot pourrait encore induire les utilisateurs en erreur en niant l’existence de cette tentative d’assassinat.

Et qu’en est-il des erreurs de vérification des faits sur les réseaux sociaux de Meta? La compagnie a aussi expliqué les raisons derrière l’application incorrecte de l’étiquette de vérification des faits sur une photo de Trump, le poing en l’air. Une version trafiquée de cette image faisait sourire les agents du Secret Service, ce qui a conduit Meta à appliquer une étiquette de vérification des faits à l’originale par erreur. Une confusion compréhensible, mais qui a laissé un goût amer chez les partisans de Trump.

La confusion et les erreurs de l’IA de Meta soulèvent des questions cruciales sur la fiabilité de la technologie.

Les partisans de Trump crient au scandale. Accusant Meta de réprimer l’histoire, ils cherchent des réponses. Google a également dû intervenir après que Elon Musk a affirmé que le moteur de recherche avait imposé une « interdiction de recherche » sur l’ancien président. Musk avait partagé une image où l’autocomplétion de Google suggérait « président donald duck » au lieu de « president donald ». Google a expliqué qu’il s’agissait d’un bug et a assuré que les utilisateurs peuvent rechercher ce qu’ils veulent à tout moment.

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.