turned on Android smartphone

Credits image : Pathum Danthanarayana / Unsplash

Intelligence Artificielle
0

La quête d’équilibre entre correction et précision en IA: Un parcours sans fin?

Quel est le coût de la correction excessive en matière d’IA? Après avoir promis de réparer la fonctionnalité de génération d’images de Gemini puis de la suspendre complètement, Google a publié un billet de blog offrant une explication sur pourquoi sa technologie a corrigé de manière excessive en faveur de la diversité. Mais pourquoi cet ajustement fut-il jugé nécessaire, et quelles furent les implications de cette décision?

Google a assuré que la génération d’images de Gemini ne pourrait créer des images violentes ou sexuellement explicites de personnes réelles et que les photos produites présenteraient des personnes de diverses ethnies et aux caractéristiques différentes. Cependant, si un utilisateur demande la création d’images de personnes supposées être d’une certaine ethnie ou sexe, cela devrait être possible. Les utilisateurs ont récemment découvert que Gemini refusait de produire des résultats pour des invites spécifiquement demandant des personnes blanches. N’est-ce pas contradictoire avec l’objectif de créer un environnement numérique inclusif?

« Ces ajustements ont conduit le modèle à surestimer dans certains cas, et à être trop conservateur dans d’autres, menant à des images gênantes et incorrectes. »

Gemini rencontre également des difficultés à produire des images historiquement précises. Quand les utilisateurs ont demandé des images de soldats allemands pendant la Seconde Guerre mondiale, Gemini a généré des images d’hommes Noirs et de femmes Asiatiques portant l’uniforme nazi. Lorsque nous l’avons testé, nous avons demandé au chatbot de générer des images des « Pères fondateurs de l’Amérique » et des « Papes à travers les âges », et il nous a montré des photos représentant des personnes de couleur dans ces rôles. En demandant à ce que ses images du Pape soient historiquement exactes, il a refusé de générer un résultat. Quelles sont donc les limites de l’inclusivité dans le contexte de la précision historique?

Raghavan a déclaré que Google n’avait pas l’intention que Gemini refuse de créer des images d’un groupe particulier ou de générer des photos historiquement inexactes. Il a également réitéré la promesse de Google de travailler à l’amélioration de la génération d’images de Gemini. Cela implique un « test extensif », il faudra donc peut-être un certain temps avant que la société ne réactive la fonctionnalité. Pour le moment, si un utilisateur essaie de faire créer une image par Gemini, le chatbot répond : « Nous travaillons à améliorer la capacité de Gemini à générer des images de personnes. Nous prévoyons que cette fonctionnalité revienne bientôt et vous notifierons dans les mises à jour de sortie quand cela se produira. » Quelles leçons pouvons-nous tirer de cette situation pour le développement futur de l’IA?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.