Les chatbots d’IA sont-ils capables de fournir avec précision des informations en temps réel, notamment lors d’événements aussi cruciaux que les élections présidentielles aux États-Unis ? Dans le tumulte des attentes électorales, alors que la plupart des chatbots renoncent à commenter les résultats des scrutins, Grok, intégré à X (anciennement Twitter), a pris la parole — au risque de se tromper.
Comment un chatbot comme Grok a-t-il pu déclarer Donald Trump vainqueur dans des États clés avant même la fin du dépouillement ? Un soir d’élections sur la côte Est, TechCrunch a interpellé Grok sur les gagnants dans des États en pleine tourmente électorale. La réponse a été parfois « Trump », une conclusion prématurée qui soulève des questions sur les sources d’information de Grok et la manière dont il les traite.
Il est intéressant de noter que, bien que Grok recommande de se référer à des sources telles que Vote.gov pour des résultats actualisés, ses réponses étaient ponctuées par des erreurs significatives. Contrairement à d’autres chatbots, tels qu’OpenAI’s ChatGPT, qui rejettent de répondre dans de telles situations incertaines pour éviter la désinformation, Grok a délivré des « hallucinations » basées sur des données non vérifiées.
Est-ce que le besoin de répondre l’emporte sur la véracité des informations fournies par l’IA ?
D’où viennent ces errements ? Les sources de Grok semblent composées de déclarations trompeuses provenant de différents cycles électoraux, mélangeant les données précédentes avec l’actualité. Alors que TechCrunch testait les capacités de Grok, la formulation des questions avait un impact notable sur les réponses, révélant une sensibilité à la syntaxe plus qu’au contexte réel des événements.
Comment les autres géants de l’IA s’en sortent-ils dans cette équation complexe ? Dans ce paysage, Google et Meta semblent adopter une approche plus judicieuse. Avec ChatGPT Search, OpenAI renvoie les utilisateurs vers des sources fiables telles que l’Associated Press et Reuters, assurant une information plus prudente et vérifiée.
Malgré tout, Grok persiste à diffuser des erreurs, comme l’atteste une lettre ouverte d’août dernier où des secrétaires d’État ont critiqué le chatbot pour avoir erronément mis en doute l’éligibilité de Kamala Harris sur certains bulletins de vote, une fausse information qui a rapidement fait le tour des plateformes.
Ces exemples montrent que même des mois après l’intervention humaine, les erreurs de Grok s’accumulent et se propagent, touchant des millions d’internautes avant qu’une correction ne soit apportée. Alors, la question qui se pose est la suivante : pouvons-nous vraiment faire confiance aux IA pour nous informer de manière fiable en période d’incertitude ?
Source : Techcrunch