Assiste-t-on à l’émergence d’intelligences artificielles capables de remplacer des métiers complexes tels que l’avocat? Pour un avocat de New York, cette problématique est devenue bien réelle, bien que d’une manière inattendue. Suite à l’utilisation du chatbot OpenAI’s ChatGPT dans la rédaction d’une requête en matière juridique, l’avocat a rencontré des résultats désastreux. Les décisions de justice citées par l’avocat étaient en réalité fictives et générées par le chatbot.
Dans la demande d’affidavit déposée jeudi, l’avocat, Steven Schwartz, déclare avoir utilisé le chatbot pour « compléter » ses recherches pour le dossier. Schwartz a écrit qu’il n’était « pas conscient de la possibilité que [le contenu de ChatGPT] puisse être faux ». Il a même partagé des captures d’écran montrant qu’il avait demandé à ChatGPT si les affaires citées étaient réelles. Le programme a répondu par l’affirmative, prétendant que les décisions pouvaient être trouvées dans des « bases de données juridiques réputées », telles que Westlaw et LexisNexis.
Les décisions de justice citées par l’avocat étaient en réalité fictives et générées par le chatbot.
Schwartz a déclaré qu’il « regrettait profondément » d’avoir utilisé ChatGPT et qu’il ne le ferait plus jamais sans une vérification absolue de son authenticité. Quant à savoir s’il aura une autre chance de rédiger une requête juridique, cela reste incertain. Le juge supervisant l’affaire a ordonné une audience le 8 juin pour discuter des sanctions éventuelles liées à cette « circonstance sans précédent » créée par les actions de Schwartz.
De telles situations soulèvent des questions importantes sur l’éthique et la responsabilité dans le domaine de l’intelligence artificielle. Comment les IA peuvent-elles être correctement réglementées et supervisées? Quel est le rôle des interfaces de chatbot comme ChatGPT dans la garantie d’informations précises et fiables? Et comment les utilisateurs peuvent-ils être tenus pour responsables de leur confiance excessive en ces machines ?
Source : Engadget