« Ne croyez jamais une IA qui vous dit qu’il est bon de manger des cailloux ! »
Google a bien chaud aux fesses ces derniers jours. Après une avalanche de mèmes et de railleries moquant les nouvelles fonctionnalités de recherche alimentées par l’IA, truffées d’erreurs et d’informations incorrectes, le géant de la tech a décidé de jouer cartes sur table jeudi dernier. Dans un post de blog, Google a finalement admis que ses fameuses « AI Overviews » avaient effectivement montré quelques bizarreries, des inexactitudes ou tout simplement un manque d’utilité.
La confession, rédigée par Liz Reid, VP et Chef de la recherche chez Google, ressemble à une confession étonnante : essayer de tout bourrer avec de l’IA a étrangement fait empirer la recherche Google. Intitulé « À propos de la semaine dernière », le post détaille les multiples façons dont leurs résumés IA se plantent. Reid souligne que même si ces IA ne « hallucinent » pas comme d’autres modèles de langage, elles peuvent tout de même se tromper pour diverses raisons, telles que la mauvaise interprétation des requêtes ou des nuances de langage.
Et les mèmes n’ont pas tardé à se pointer par milliers. Certains internautes ont même partagé des captures d’écran trafiquées ou posant des questions absurdes du style « Combien de pierres devrais-je manger ? » vu qu’il y avait peu d’informations factuelles sur ce sujet, l’IA de Google a conduit l’utilisateur vers un contenu satirique, comme un article sur un site de logiciel géologique.
L’IA de Google affirme que « les géologues recommandent de manger au moins un petit caillou par jour ».
Il est assez hilarant de se dire que si on avait tapé « Combien de pierres devrais-je manger ? » et qu’on avait été conduit vers des liens inutiles ou un article humoristique, cela n’aurait surpris personne. Le problème ici, c’est la confiance avec laquelle l’IA affirmait cette absurdité comme si c’était une vérité absolue. Sans parler du fait que Google a affirmé avoir testé cette fonctionnalité de manière exhaustive avant de la lancer. Sérieusement, personne chez Google n’a pensé à tester des requêtes absurdes ?
D’ailleurs, Google a minimisé la dépendance de sa fonction IA aux données des utilisateurs de Reddit. Bien que nombre d’entre nous ajoutent « Reddit » à leurs recherches depuis longtemps, Reddit n’est pas un réservoir de connaissances factuelles à proprement parler. Google a encore à apprendre à faire la différence entre une astuce fiable d’un utilisateur de Reddit et un troll.”
Entre la suggestion de coller le fromage à la pizza avec de la glue et les millions d’utilisateurs devenus bêta-testeurs involontaires, les gaffes de Google, bien qu’amusantes, montrent encore une fois que la route vers une IA de recherche vraiment fiable est encore longue. Mais, soyons honnêtes, on ne va pas compter Google hors-jeu pour autant. Google est toujours dans la course avec ses millions de tests en temps réel—ou devrais-je dire en « recherches » réelles.
Allez, pour conclure, on pourrait dire que même si l’IA de Google peut parfois être aussi inutile qu’une pierre, elle n’est sûrement pas encore tombée dans le ravin. Après tout, un caillou qui roule n’amasse pas mousse, mais le moulin de Google, lui, n’a pas fini de tourner.
Source : Techcrunch