a room with many machines

Credits image : ZHENYU LUO / Unsplash

Intelligence ArtificielleRéseaux sociauxSociété
0

Les assistants IA peuvent-ils remplacer les vérificateurs de faits humains?

Quel est l’avenir de la vérification des faits dans un monde où les assistants IA tels que Grok d’Elon Musk gagnent en popularité ? Les utilisateurs de la plateforme X, autrefois connue sous le nom de Twitter, commencent à s’appuyer sur l’assistant IA de Musk, Grok, pour vérifier des informations. Pourquoi cette nouvelle tendance suscite-t-elle des inquiétudes chez les vérificateurs de faits humains ?

La fonction de Grok a été lancée plus tôt ce mois-ci, de manière similaire à ce que Perplexity avait proposé via un compte automatisé sur X. En conséquence, de nombreux utilisateurs se sont rués vers l’outil pour demander des vérifications de faits sur des sujets divers, incluant des croyances politiques. Mais que se passe-t-il lorsque ces assistants IA sont capables de formuler des réponses paraissant convaincantes alors qu’elles ne sont pas forcément exactes ?

Certaines préoccupations ont déjà émergé quant à la désinformation que Grok pourrait véhiculer. Des cas précédents montrent que l’assistant a été impliqué dans la diffusion de fausses nouvelles et de désinformation, particulièrement avant les élections américaines, incitant même cinq secrétaires d’État à demander à Musk de prendre des mesures. Cela soulève une question cruciale : dans quelle mesure ces outils IA sont-ils susceptibles de manipuler la vérité ?

La capacité des assistants IA à établir une certaine apparence de vérité même lorsqu’ils sont dans l’erreur constitue un danger potentiellement significatif.

Au-delà de Grok, des préoccupations similaires ont été exprimées à l’égard de ChatGPT d’OpenAI ou de Gemini de Google. Tous ces outils ont montré des lacunes dans la précision des informations fournies, notamment lors d’élections. Angie Holan, directrice du Réseau international de vérification des faits à Poynter, avertit que même lorsque ces assistants semblent proposer des réponses humaines, le risque qu’elles soient fausses demeure. Devons-nous donc faire confiance à ces assistants pour fournir des informations véridiques ?

Cependant, contrairement aux IA, les vérificateurs humains s’appuient sur des sources multiples et crédibles pour confirmer les faits, assurant une responsabilité que les machines ne peuvent garantir. Pratik Sinha, cofondateur du site de vérification des faits Alt News en Inde, souligne que la qualité des réponses de Grok dépend intégralement des données qui lui sont fournies. Qui gère cette donnée et quelles implications cela a-t-il pour la véracité des informations ?

D’autre part, l’ouverture de Grok à un public large via les réseaux sociaux soulève un problème de taille : cette accessibilité accroît potentiellement le risque de propagation de fausses informations à grande échelle. Le phénomène n’est pas nouveau, mais l’apparition des IA rend la manipulation encore plus subtile et efficace. Comment cela pourrait-il nous affecter socialement à long terme ?

Si l’avenir de la vérification des faits semble prêt à adopter une forme hybride de vérification humaine et d’utilisation des outils IA, il demeure impératif de questionner la transparence et la fiabilité de ces systèmes. Alors que le pendule pourrait finir par revenir vers une vérification plus humaine, devrions-nous nous inquiéter des conséquences immédiates et possibles de cette transition numérique ?

En dernier lieu, il semble essentiel de se demander : sommes-nous prêts à sacrifier la véracité pour le confort des réponses rapides et apparemment naturelles fournies par les assistants IA ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.