blue lego minifig on white surface

Credits image : Nik / Unsplash

Intelligence Artificielle
0

Les Émotions, C’est du Bidon ?

« Les émotions sont à l’IA ce que les licornes sont à la zoologie : fascinantes mais un peu fictives. » Voilà ce que certains experts pourraient dire au sujet des nouvelles prouesses annoncées par Google. Leur récente création, la famille de modèles PaliGemma 2, serait capable de reconnaître des émotions dans les images. On peut imaginer ce que cela donnerait face à un test de Rorschach… une interprétation émotive de vos tâches d’encre ?

Google a récemment dévoilé son dernier chef-d’œuvre technologique : PaliGemma 2. Ce n’est pas une variété exotique de pizza, mais bien un modèle d’IA qui analyse les images et peut soi-disant comprendre les émotions des personnes photographiées. Oui, apparemment ce modèle dépasse la simple reconnaissance d’objets pour capturer l’âme (ou presque) d’une scène en générant des légendes détaillées et contextuelles.

Cependant, dire que ça impressionne tout le monde serait un euphémisme. Des experts comme Sandra Wachter, professeure à l’Oxford Internet Institute, tirent la sonnette d’alarme. Elle caricature l’entreprise en la comparant à une boule magique de foire, indiquant qu’il est problématique de prétendre lire les émotions des gens. Après tout, deviner si quelqu’un sourit ou s’il fronce les sourcils, c’est l’art divinatoire pour les nuls.

« Avec les émotion-déchiffreurs d’IA, le diable est bien plus souvent dans les biais que dans les détails. »

Pour ajouter une touche historique, l’approche d’émotion de l’IA puiserait ses racines dans les travaux de Paul Ekman. Ce psychologue a théorisé que nous possédons tous six émotions fondamentales : la joie, la tristesse, la colère, la peur, le dégoût, et la surprise. Cependant, des études plus récentes ont critiqué cette idée, soulignant les différences culturelles majeures dans l’expression des émotions.

Le plus grand hic, selon les experts, c’est que ces systèmes d’émotion pourraient devenir plus biaisés qu’une bande de fans de football. Par exemple, une étude du MIT a montré que les modèles qui analysent les visages ont tendance à favoriser les sourires tout en stigmatisant certains groupes ethnoraciaux. Et malgré tout le rajustage annoncé par Google pour leur PaliGemma 2, beaucoup restent sceptiques quant aux résultats.

En Europe, les régulateurs ne sont pas particulièrement enclins à voir ces technologies proliférer à l’échelle industrielle. L’IA Act veut, par exemple, interdire l’usage de ces détecteurs d’émotions dans les écoles et par les employeurs. Mais certains s’inquiètent que ces technologies soient mal utilisées ou détournées, causant plus de tort que de bien.

Avec toutes ces craintes et incertitudes quant à l’utilisation des technologies de détection d’émotions, il serait peut-être sage de toujours se rappeler que, dans le monde de l’IA, il est parfois plus facile de lire entre les lignes que sur les visages. Et comme dirait un programmeur malicieux : « La véritable crise émotionnelle est quand ton code plante sans raison apparente ! »

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.