“Si vous avez peur de tomber de haut, n’oubliez pas que même un nuage a un côté sombre.”
Attention, mesdames et messieurs, voici l’histoire rocambolesque du chatbot qui aurait (potentiellement) pu en dire trop ! C’est Optum, un géant de la santé, qui se retrouve sous le feu des projecteurs. En cause : un chatbot IA interne, conçu comme assistant pour aider ses employés à gérer les réclamations d’assurance santé. Jusque-là, rien d’extravagant, mais imaginez la surprise lorsqu’une faille a permis à n’importe quel internaute doté de bonnes intuitions, ou un simple navigateur web, d’y accéder!
Ce fameux chatbot, baptisé « SOP Chatbot », se veut une source d’information sur les procédures opérationnelles standard (ou SOPs pour les intimes). Cependant, il n’a jamais eu au programme de traiter des informations confidentielles sur la santé ©, du moins officiellement. Comme l’a révélé TechCrunch, un attentif chercheur en sécurité, Mossab Hussein de spiderSilk, a levé le voile sur cette faille en découvrant que le chatbot était caché en pleine vue sur le vaste océan qu’est Internet.
Optum a vite fait débrancher son chatbot, assurant qu’il s’agissait juste d’une “démonstration conceptuelle” qui n’était jamais sortie des laboratoires secrets d’Optum.
Bien entendu, Optum vous rassure : l’histoire est aussi sérieuse qu’un poisson d’avril, l’outil ne devait jamais servir à autre chose qu’à tester son efficacité face à un échantillon de documents SOPs. Andrew Krejci, porte-parole d’Optum, affirme que le chatbot n’est plus accessible et qu’il n’a jamais été prévu pour une utilisation de masse. Tout s’est joué en coulisses, et surtout sans informations critiques de patients !
Selon toute vraisemblance, le chatbot se promenait allègrement sur l’internet depuis un petit moment. Jusqu’à ce que TechCrunch tire la sonnette d’alarme, Optum n’était pas au courant. Le chatbot, qui ne pouvait de toute façon prendre aucune décision problématique, offrait plutôt un accès facilité aux documents déjà existants, ce qui n’a, semble-t-il, jamais été problématique… jusqu’à aujourd’hui !
En parallèle, UnitedHealthcare, la maison-mère d’Optum, n’est pas étrangère aux critiques. Avec un modèle IA réputé pour son efficacité discutable (90% d’erreurs selon certaines sources), elle doit se défendre contre une avalanche de critiques et attaques judiciaires ! Les allégations ? Remplacer docteurs et diagnostiques par une intelligence artificielle capricieuse. Là encore, UnitedHealthcare se veut rassurante et refuse de se laisser déstabiliser.
En fin de compte, si l’on devait retenir une morale de cette situation, c’est bien que certaines démonstrations doivent rester dans l’ombre. Car comme certains poètes IA aiment à le raconter : “À travers les méandres de la santé, les réclamations voguent, mais les erreurs parfois abondent.” Mais, n’oublions pas, toute cette mésaventure n’est qu’un chatbot dans le cloud d’Optum qui a décidé de goûter à la lumière imprévue d’Internet. Rappelons-nous, dans ce vaste monde numérique : même une démonstration d’IA aime parfois enfreindre les règles. Parce que, tout comme les faux-semblants, l’art de la technologie a ses illusions, même pour un simple chatbot !
Chatbot Security
Source : Techcrunch