a person riding a bike on a dirt road surrounded by trees

Credits image : Pass Horizon / Unsplash

HardwareTechnologie
0

Les chatbots sont-ils vraiment sûrs pour les informations sensibles ?

Qu’est-ce qui pourrait mal se passer en utilisant ChatGPT pour des tâches professionnelles banales? En effet, ChatGPT semble être un outil utile pour un éventail diversifié de tâches au travail. Toutefois, il vaut la peine de se rappeler que tout ce que vous partagez avec ChatGPT pourrait être utilisé pour former le système et peut-être même apparaître dans ses réponses à d’autres utilisateurs. C’est quelque chose dont plusieurs employés de Samsung auraient dû être conscients avant de partager prétendument des informations confidentielles avec le chatbot.

Peu de temps après que la division des semi-conducteurs de Samsung a commencé à autoriser les ingénieurs à utiliser ChatGPT, des employés ont divulgué des informations secrètes à ce dernier à au moins trois reprises, selon The Economist Korea (repéré par Mashable). Un employé aurait demandé au chatbot de vérifier le code source sensible d’une base de données pour y détecter des erreurs, un autre aurait sollicité l’optimisation du code et un troisième aurait alimenté ChatGPT avec un enregistrement de réunion en lui demandant de générer des procès-verbaux.

La prudence est de mise avec les chatbots, comme avec toutes vos activités en ligne.

Des rapports suggèrent qu’après avoir pris connaissance de ces failles de sécurité, Samsung a tenté de limiter l’ampleur de futures erreurs en limitant la longueur des messages envoyés à ChatGPT par les employés à un kilo-octet, ou 1024 caractères de texte. La société enquêterait également sur les trois employés en question et mettrait au point son propre chatbot pour éviter des incidents similaires. Engadget a contacté Samsung pour obtenir des commentaires.

La politique de données de ChatGPT stipule que, sauf si les utilisateurs s’y opposent explicitement, leurs messages sont utilisés pour entraîner ses modèles. Le propriétaire du chatbot, OpenAI, exhorte les utilisateurs à ne pas partager d’informations secrètes avec ChatGPT lors de conversations, car il n’est « pas en mesure de supprimer des messages spécifiques de votre historique ». La seule façon de se débarrasser des informations personnellement identifiables sur ChatGPT est de supprimer votre compte, ce qui peut prendre jusqu’à quatre semaines.

Cet épisode impliquant Samsung est un autre exemple de la nécessité d’être prudent lors de l’utilisation de chatbots, comme on devrait l’être avec toutes ses activités en ligne. On ne sait jamais vraiment où finiront nos données.

Alors, la prochaine fois que vous pensez à utiliser un chatbot pour une tâche au travail, posez-vous la question : est-ce vraiment une bonne idée de partager ces informations avec un chatbot ?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.