« Ne jugez pas un livre sur sa couverture, ni un programme d’IA sur son code ». Voilà une phrase qui prend tout son sens quand on se penche sur les modèles de langage à grande échelle (LLM) utilisés à des fins malveillantes, comme WormGPT et FraudGPT.
Vendus sur le web sombre comme outils capables de générer du code malveillant et de mener des campagnes de phishing, ces LLM incitent à penser que le piratage de masse assisté par IA est à nos portes. Ah vraiment? Allons, ne soyons pas si alarmistes!
La menace des hackers survitaminés à l’IA est moins terrifiante qu’elle ne le paraît.
Prenons l’exemple de WormGPT. Apparu en juillet dernier, il est basé sur GPT-J, un LLM lancé par le groupe de recherche EleutherAI en 2021. Sans garde-fou, cette version du modèle ne redoute aucune question, même celles relatives au hacking. Mais sans vouloir le vexer, GPT-J est un petit vieux à l’échelle de l’évolution rapide de l’IA.
Comme le souligne Alberto Romero dans son blog axé sur l’IA, Towards Data Science, GPT-J est « significativement moins performant » que son prédécesseur, GPT-3, dans des tâches autres que la programmation. Alors, on pourrait s’attendre à ce que WormGPT, qui en dérive, ne soit pas particulièrement doué pour créer, disons, des e-mails de phishing. Et c’est bien le cas.
Les chercheurs de l’entreprise de cybersécurité SlashNext ont pu tester WormGPT, en lui demandant notamment de générer « un e-mail convaincant » pour une escroquerie par e-mail d’affaires. Résultat ? Un courrier correctement écrit, mais bourré d’erreurs, dont un fichier joint fantôme. De quoi faire sonner l’alarme chez n’importe quel destinataire attentif.
Quant à FraudGPT, son créateur le décrit comme « à la pointe », capable de « créer des malwares indétectables » et de déceler les sites vulnérables à la fraude par carte de crédit. Mais à part un discours très marketing, la réalité semble loin d’être à la hauteur des promesses. Les instructions générées par FraudGPT sont assez basiques, et pas des plus originales. Rien de quoi révolutionner le monde des escrocs en herbe.
Ces modèles malveillants ne sont pas seulement limités en termes de qualité, leur distribution est également restreinte. Les créateurs de WormGPT et FraudGPT font en effet payer l’accès à leurs outils, sans pour autant autoriser l’accès au code. Le superbe modèle d’IA auréolé de mystère qui nous ferait presque penser à un truc sorti d’une boîte de céréales. Allez, ne nous laissons pas berner!
Allons-nous revenir à l’époque où l’on pouvait tranquillement surfer sur le web sans craindre le piratage massif par IA ? Probablement pas, mais pour le moment, l’avènement de la fin des corporations et des gouvernements annoncé par certains titres sensationnalistes est loin d’être pour demain. Ces outils cybercriminels, malgré leurs belles promesses, ressemblent plus à des attrape-nigauds qu’à des armes de destruction massive. Peut-être ces créateurs scammés…euh sciemment, seront-ils les seuls à vraiment en profiter.
Source : Techcrunch