a group of hands reaching up into a pile of food

Credits image : Google DeepMind / Unsplash

Intelligence ArtificielleSociétéTechnologie
0

La technologie peut-elle transcender les biais humains?

Comment un commentaire apparemment anodin a-t-il pu soulever une telle vague d’indignation lors de la conférence annuelle NeurIPS sur l’IA ? Le sujet initial de Rosalind Picard, professeur au MIT Media Lab, devait traiter des algorithmes d’optimisation. Mais le choix de ses mots a vite détourné l’attention de l’audience sur un tout autre débat.

En plein cœur de sa présentation intitulée « Comment optimiser ce qui compte vraiment », Picard projette un slide qui fait jaser plus pour son contenu que pour sa pertinence scientifique. Elle cite l’excuse d’un étudiant chinois, apparemment exclu de son université, pour avoir utilisé l’IA en arguant d’un manque d’enseignements moraux. Pourquoi mentionner la nationalité, et est-ce justifiable?

Plus loin dans sa diapositive, elle ajoute que la plupart des Chinois qu’elle connaît sont « honnêtes et droits sur le plan moral ». Un commentaire qui aurait pu passer inaperçu, mais qui a enflammé X, plateforme sur laquelle Jiao Sun, scientifique chez Google DeepMind, a diffusé le cliché controversé. Pourquoi une telle généralisation a-t-elle suscité autant de ressentiments?

Cette controverse rappelle combien il est délicat de discuter d’éthique et d’intelligence artificielle sans tomber dans les biais raciaux.

Ce n’est pas juste les mots de Picard, mais bien la réaction en chaîne qui s’ensuivit, qui est troublante. Yuandong Tian, chercheur chez Meta, qualifie directement cela de biais racial explicite, questionnant la raison d’une telle dérive dans un événement prestigieux comme NeurIPS. Le débat est lancé : comment éviter que des conférences savantes ne deviennent des terrains propices à des propos jugés tendancieux?

Suite à cet incident, les organisateurs de NeurIPS ont pris position, publiant des excuses en ligne. Ils soulignent que le commentaire de Picard ne reflète en rien leurs valeurs et s’efforcent d’aborder la question directement avec l’oratrice. Le message est clair : l’inclusivité et la diversité sont des priorités incontournables pour NeurIPS. Est-ce suffisant pour endiguer les allusions malheureuses lors de telles manifestations?

Rosalind Picard elle-même a exprimé des remords, concédant que sa mention de la nationalité était inutile et hors de propos. Elle reconnaît les dommages collatéraux créés par sa remarque et appelle à des suggestions pour apaiser la communauté affectée. Mais peut-on réellement « réparer » de tels incidents avec de simples mots?

Le débat sur les biais raciaux et les valeurs morales semble être loin d’être terminé dans le domaine de l’intelligence artificielle. Si ce genre de multiplier pointu peut apporter des solutions, peut-il également garantir que ceux qui les manipulent sauront toujours faire preuve d’intégrité dans leur démarche?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.