silver and gold round coins in box

Credits image : Kenny Eliason / Unsplash

Intelligence ArtificielleRéseaux sociaux
0

L’Intelligence Artificielle est-elle la solution pour combattre les fausses informations ?

Pouvons-nous vraiment faire confiance à tout ce qui est inscrit sur une page Wikipédia ? Mieux vaut se référer aux sources originales citées en bas de page, mais même ces dernières peuvent parfois nous induire en erreur. Des chercheurs ont développé une IA dont l’objectif est d’améliorer la fiabilité des références de Wikipédia en formant les algorithmes pour identifier les citations sur le site qui sont discutables. Comment cela fonctionne-t-il exactement ?

Le programme, appelé SIDE, fait deux choses : vérifier si une source primaire est précise et suggérer de nouvelles sources. Cependant, l’IA opère sous l’hypothèse qu’une affirmation Wikipédia est vraie. Cela signifie que, bien qu’elle puisse vérifier la validité d’une source, elle ne peut pas réellement vérifier les affirmations faites dans une entrée. Dans quelle mesure cela peut-il être efficace ?

Il existe un programme qui peut non seulement vérifier l’exactitude d’une source primaire, mais aussi suggérer de nouvelles sources. Cependant, il ne peut pas vérifier les affirmations faites dans l’entrée de Wikipédia.

Dans une étude, les personnes ont préféré les citations suggérées par l’IA aux originales 70% du temps. Les chercheurs ont constaté que dans près de 50% des cas, SIDE présentait une source déjà utilisée par Wikipédia comme référence principale. Et 21% du temps, SIDE était un pas en avant lorsqu’il produisait une recommandation déjà considérée comme appropriée par les annotateurs humains de l’étude. Mais est-ce suffisant pour affirmer l’efficacité de l’outil ?

L’IA semble démontrer qu’elle peut effectivement aider un rédacteur à vérifier les affirmations de Wikipédia, mais les chercheurs admettent que d’autres programmes pourraient surpasser leur conception actuelle en termes de qualité et de rapidité. SIDE a ses limites : par exemple, le programme ne prend en compte que les références correspondant aux pages web. En réalité, Wikipédia cite des livres, des articles scientifiques et des informations présentées par d’autres médias au-delà du texte, comme les images et les vidéos. N’est-il donc pas limitatif de se baser uniquement sur cet outil ?

Nous savons tous qu’un programme, en particulier une IA qui dépend de la formation, peut être sujet aux biais de son développeur. La data utilisée pour entrainer et évaluer les modèles de SIDE pourrait être limitée à cet égard. Cependant, combien la nécessité de vérifier les informations sur internet, particulièrement dans cette ère de désinformation, peut-elle être facilitée par des outils comme SIDE ?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.