man in blue crew neck shirt wearing black vr goggles

Credits image : Maxim Tolchinskiy / Unsplash

Intelligence ArtificielleRéseaux sociauxTechnologie
0

La vérité est-elle manipulée par les algorithmes d’Elon Musk?

Qu’est-ce qui se cache vraiment derrière le voile de l’intelligence artificielle prétendument neutre en politique? Avec le récent lancement de Grok 3 par Elon Musk, qualifié de modèle d’IA « maximalement en quête de vérité, » on pourrait se demander s’il répond réellement à cette promesse.

Des rapports récents indiquent que Grok 3 aurait, pendant un temps, censuré des faits peu flatteurs à propos de Donald Trump et d’Elon Musk lui-même. Comment cela peut-il être cohérent avec l’idée d’une IA qui se veut sans filtre? Sur les réseaux sociaux, des utilisateurs ont constaté que l’algorithme, utilisant son « chain of thought, » était programmé pour omettre les noms de Trump et Musk lorsqu’il s’agissait de désigner des diffuseurs de désinformation. Pourquoi de telles instructions ont-elles été incluses à l’IA, et à quelle fin?

La bataille pour une IA politiquement neutre est-elle déjà perdue d’avance?

TechCrunch a pu observer cette anomalie, mais au moment de leur dernière vérification, l’IA mentionnait à nouveau Donald Trump sur ce sujet de désinformation. Cet incident soulève la question de l’intégrité et de la stabilité des modèles d’IA : si l’interférence peut être aussi facilement introduite et retirée, comment pouvons-nous faire confiance à leur neutralité politique?

La question de la désinformation est indéniablement complexe et souvent teintée de politique. Tant Trump que Musk ont été accusés de propager des affirmations fausses, mettant ainsi à l’épreuve la capacité de Grok 3 à rester non partisan. En parallèle, les critiques du modèle l’ont qualifié d’incliné vers la gauche politique, une accusation que xAI a cherché à rectifier en modifiant le code source.

Musk a présenté Grok comme une alternative audacieuse dans le monde des IA, censée briser les barrières du politiquement correct, mais semble-t-il, pas au prix de son objectivité. Avant Grok 3, les modèles précédents hésitaient sur les sujets politiques et évitaient certains débats sensibles. Un revirement de stratégie ou un coup marketing?

Musk a attribué les biais perçus du modèle à un jeu de données entraîné sur des pages web publiques, promettant de recentrer Grok vers une vraie neutralité politique. Néanmoins, cette promesse résonne dans un contexte où les soupçons de censure conservatrice persistent, d’autant plus sous le regard vigilant de l’administration Trump.

Alors, à l’ère où l’intelligence artificielle façonne nos discours publics, pouvons-nous garantir que ces machines restent impartiales, ou bien risquent-elles de devenir les nouvelles arènes de nos vieux débats idéologiques?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.