Est-il possible que, malgré des décennies de développement et des milliards dépensés, les chatbots n’aient toujours pas réussi à révolutionner notre interaction avec la technologie ? Depuis l’aube de l’informatique, pouvoir dialoguer avec nos machines semblait être le Graal de la technologie. À travers le rétroviseur de 2004, il est impressionnant de constater le chemin parcouru : des milliards d’appareils capables de répondre à nos questions peuplent désormais nos poches et nos foyers. Mais alors, pourquoi ces assistants virtuels, malgré leur omniprésence, semblent-ils toujours manquer de cet éclat promis ?
Le terme « chatbot » englobe une multitude de systèmes, des assistants vocaux aux intelligences artificielles. Auparavant, parler à un ordinateur signifiait saisir des commandes clavier dans l’espoir d’une interaction semblable à une conversation. Des systèmes précurseurs, tels que l’ELIZA de 1964 ou le SmarterChild de 2001, jusqu’aux moteurs de reconnaissance vocale, l’interaction homme-machine a longtemps flirté avec l’idée de conversations naturelles. Mais, est-ce vraiment suffisant pour nous convaincre ?
Les avancées majeures ne sont pas rares : en retraçant l’évolution, de Siri sur iPhone 4S en 2011 à Alexa, Cortana et Google Assistant, on constate que la promesse de l’informatique en langage naturel est plus vivante que jamais. Cependant, ces réalisations ont un coût : des centaines de millions, voire des milliards de dollars. Apple, Amazon et Google ont massivement investi dans l’espoir de transformer la conversation avec les machines en quelque chose de réellement magique. Mais, où se situe la réelle valeur de ces technologies pour le grand public ?
Bien que coûteuse, la technologie derrière les chatbots n’a pas encore réussi à tenir toutes ses promesses.
En pratique, l’utilisation qu’on fait de cette technologie avancée semble assez banale : allumer une ampoule, jouer de la musique ou consulter les scores sportifs. L’intelligence artificielle peine souvent à fournir des résultats pertinents, se heurtant aux subtilités du langage humain. Sans parler des cas où l’intégration d’IA générative n’a fait qu’ajouter au problème, générant des réponses qui frisent parfois le non-sens. Cette incapacité à comprendre et à traiter les nuances du langage humain n’est-elle pas la preuve que nous sommes encore loin de l’objectif d’une véritable intelligence conversationnelle ?
De surcroît, la poursuite de cette quête technologique soulève d’autres préoccupations. À mesure que les géants de la tech parient sur l’intelligence artificielle, les critiques pointent du doigt l’utilisation massive de ressources, tant financières qu’énergétiques. L’IA exige aujourd’hui des quantités astronomiques d’énergie, au moment même où notre planète appelle à une réduction de la consommation. Cette ironie soulève une question fondamentale : ces investissements en valent-ils la peine ?
Une réflexion souvent évoquée est celle de l’assistant vocal de « Star Trek: The Next Generation », une technologie fictionnelle dotée d’une intelligence presque générale, mais qui ne remplace pas l’équipage humain. Cette aspiration à contrôler, à interagir réellement avec nos technologies, est-elle finalement ce qui nous éloigne d’une acceptation pleine et entière des chatbots ?
Malgré vingt ans d’innovations et d’énormes sommes d’argent dépensées, les chatbots n’ont pas encore trouvé leur place telle que prédite. Leur manque de compréhension, leur incapacité à répondre de manière significative aux besoins humains, sans parler des considérations éthiques et environnementales, ne font qu’accentuer le fossé entre la promesse et la réalité. Alors, pourquoi continuons-nous à investir dans une technologie qui, jusqu’à preuve du contraire, semble incapable de s’aligner sur nos véritables attentes et besoins ?
Source : Engadget