« Quand la technologie vous fait entendre des voix, peut-être est-il temps de découvrir le bouton muet. »
Ce n’est pas tous les jours qu’on se retrouve à discuter des assistants numériques qui jonglent avec la transcription comme un artiste de cirque avec un ballon. Un rapport récent de l’AP a mené la lumière sur les inquiétudes exprimées par des experts en informatique et des chercheurs motivés par les transcriptions réalisées par Whisper d’OpenAI. Alors que la tendance des intelligences artificielles génératives à « halluciner » — autrement dit, à inventer des histoires — est devenue célèbre, on pourrait espérer que ce phénomène ne s’invite pas dans les retranscriptions, un domaine qui, ironiquement, devrait coller à la réalité sonore.
L’intégration de remarques racistes ou de traitements médicaux complètement fictifs dans des transcriptions par Whisper a de quoi donner des sueurs froides. Imaginez une transcription utilisée dans un hôpital qui décide de rajouter sa touche personnelle, transformant une simple consultation en un roman de science-fiction. Des chercheurs de l’Université du Michigan ont découvert que Whisper pouvait halluciner dans huit transcriptions sur dix lors de réunions publiques. Et ce n’est pas un cas isolé : un ingénieur en apprentissage machine a identifié la même fâcheuse habitude dans plus de la moitié des 100 heures d’audio qu’il a soumises à Whisper. Sans oublier le développeur qui a vu des hallucinations effleurer presque toutes ses 26 000 transcriptions.
OpenAI scrute les mirages tout en peaufinant le paysage sonore.
De son côté, OpenAI ne reste pas les bras croisés. Un porte-parole de l’entreprise a assuré qu’elle œuvrait sans relâche pour améliorer la précision de ses modèles et minimiser les hallucinations, précisant que certains contextes critiques sont bannis d’usage pour Whisper. « Nous remercions les chercheurs pour le partage de leurs observations », a-t-il ajouté avec un optimisme inébranlable.
Il est probable que les progrès technologiques nous permettront bientôt d’éviter que notre assistant virtuel devienne écrivain de science-fiction malgré lui. D’ici là, si vous entendez quelqu’un parler de dragons rouges dans votre prochaine réunion, c’est peut-être seulement Whisper qui a besoin d’une sieste bien méritée.
Source : Techcrunch