Le faux-pas de Gemini de Google au sujet du Super Bowl LVIII mérite-t-il notre attention à l’heure où les modèles de génération automatique de langage (GenAI) gagnent en popularité? Ne sommes-nous pas un peu trop prompts à accepter comme vérité ce que ces technologies avancées nous présentent?
Sur le fil Reddit, Google Gemini, animé par les modèles GenAI du même nom, parle du Super Bowl comme si l’évènement s’était déroulé hier. Mais comment un système aussi performant peut-il fabriquer de toutes pièces des faits et statistiques qui n’existent pas? Est-ce un signe avant-coureur d’une confiance aveugle et problématique dans ces technologies?
Les chatbots comme Microsoft Copilot se joignent à la trendance, corroborant des évènements qui n’ont pas eu lieu. De quelle manière ces erreurs influencent-elles la perception du public vis-à-vis de l’intelligence artificielle? Peut-on encore parler d’intelligence lorsque des erreurs si flagrantes se glissent dans les réponses de ces systèmes?
La prudence est de mise : GenAI, autant qu’elle peut nous impressionner, n’est pas infaillible.
Ironiquement, ces systèmes ne révèlent-ils pas leurs propres limites en succombant à des erreurs aussi simples? Comment se fait-il que ChatGPT, lui, ne commette pas les mêmes erreurs triviales? Faut-il y voir une différence qualitative entre les modèles qui sous-tendent ces technologies?
La facilité avec laquelle ces technologies tissent des mensonges basés sur des données erronées ne doit-elle pas nous inciter à questionner la capacité de discernement de GenAI? Si ces modèles ne font qu’apprendre des schémas de probabilités, comment peuvent-ils véritablement comprendre ce qu’ils énoncent?
Au final, n’est-il pas crucial de s’interroger sur la place que nous sommes prêts à accorder à ces outils dans notre quête de la vérité? Si même des évènements aussi médiatisés que le Super Bowl peuvent être mal représentés par GenAI, où tracerons-nous la ligne entre un assistant utile et une source de désinformation potentielle?
Source : Techcrunch