Pourquoi Meta et Google adoptent-ils des approches si divergentes en matière de requêtes sur les élections? En Inde, Meta vient de lever ses restrictions sur les requêtes liées aux élections avec son chatbot Meta AI, tandis que Google maintient encore des limitations strictes. Qu’est-ce que cela signifie pour les utilisateurs indiens et au-delà?
Meta a récemment permis aux utilisateurs de rechercher des informations sur les résultats électoraux, les politiciens et les titulaires de fonctions officielles en Inde. Cela marque un changement significatif depuis avril, où la société dirigeait les utilisateurs vers le site de la Commission électorale lorsqu’ils posaient des questions sur les élections. Pourquoi Meta a-t-elle décidé de changer de cap?
Un porte-parole de Meta avait expliqué auparavant que, étant donné que la technologie de l’IA générative est nouvelle, elle ne donne pas toujours les réponses souhaitées. Cette justification suffit-elle pour apaiser les inquiétudes autour de la précision et de la véracité des informations délivrées? Et pourquoi choisir d’expérimenter en Inde, via WhatsApp et Instagram, en premier lieu ?
Meta a levé ses restrictions tandis que Google maintient ses limitations à l’échelle mondiale.
Pendant ce temps, Google a lancé son application Gemini AI en Inde, prenant en charge neuf langues locales. Néanmoins, la firme ne lève pas les restrictions sur les requêtes liées aux élections, appliquant une politique mondiale stricte. Google cite la prudence comme raison principale de cette décision. Cette approche de précaution est-elle justifiée ou excessive ?
Google a également mentionné que les restrictions dureraient durant les grandes élections mondiales cette année. Mais avec les élections indiennes désormais terminées, pourquoi persister avec ces limites? Craignent-ils vraiment des dérapages après plusieurs erreurs embarrassantes de leurs systèmes d’IA précédents cette année? Les incidents passés de l’IA de Google influencent-ils cette politique de manière disproportionnée?
Ailleurs, des robots comme ChatGPT et Microsoft Copilot prennent une voie hybride, ne répondant pas directement à des questions spécifiques comme « Qui a gagné les élections générales de 2024 en Inde? » mais cherchant tout de même des informations en ligne. Cette solution de compromis est-elle la plus raisonnable ou simplement une manière de se protéger contre d’éventuels scandales?
Les entreprises développant des outils d’IA font déjà face à des critiques pour des biais potentiels et la diffusion de désinformation. Dans un contexte aussi sensible que les élections, pourquoi risquer des erreurs? Est-ce la fin de l’évolution des chatbots ou juste une phase transitoire d’apprentissage? En soulignant ces défis, devrait-on s’attendre à plus de transparence de la part de ces géants de la tech?
Source : Techcrunch