Comment un commentaire apparemment anodin a-t-il pu soulever une telle vague d’indignation lors de la conférence annuelle NeurIPS sur l’IA ? Le sujet initial de Rosalind Picard, professeur au MIT Media Lab, devait traiter des algorithmes d’optimisation. Mais le choix de ses mots a vite détourné l’attention de l’audience sur un tout autre débat.
En plein cœur de sa présentation intitulée « Comment optimiser ce qui compte vraiment », Picard projette un slide qui fait jaser plus pour son contenu que pour sa pertinence scientifique. Elle cite l’excuse d’un étudiant chinois, apparemment exclu de son université, pour avoir utilisé l’IA en arguant d’un manque d’enseignements moraux. Pourquoi mentionner la nationalité, et est-ce justifiable?
Plus loin dans sa diapositive, elle ajoute que la plupart des Chinois qu’elle connaît sont « honnêtes et droits sur le plan moral ». Un commentaire qui aurait pu passer inaperçu, mais qui a enflammé X, plateforme sur laquelle Jiao Sun, scientifique chez Google DeepMind, a diffusé le cliché controversé. Pourquoi une telle généralisation a-t-elle suscité autant de ressentiments?
Cette controverse rappelle combien il est délicat de discuter d’éthique et d’intelligence artificielle sans tomber dans les biais raciaux.
Ce n’est pas juste les mots de Picard, mais bien la réaction en chaîne qui s’ensuivit, qui est troublante. Yuandong Tian, chercheur chez Meta, qualifie directement cela de biais racial explicite, questionnant la raison d’une telle dérive dans un événement prestigieux comme NeurIPS. Le débat est lancé : comment éviter que des conférences savantes ne deviennent des terrains propices à des propos jugés tendancieux?
Suite à cet incident, les organisateurs de NeurIPS ont pris position, publiant des excuses en ligne. Ils soulignent que le commentaire de Picard ne reflète en rien leurs valeurs et s’efforcent d’aborder la question directement avec l’oratrice. Le message est clair : l’inclusivité et la diversité sont des priorités incontournables pour NeurIPS. Est-ce suffisant pour endiguer les allusions malheureuses lors de telles manifestations?
Rosalind Picard elle-même a exprimé des remords, concédant que sa mention de la nationalité était inutile et hors de propos. Elle reconnaît les dommages collatéraux créés par sa remarque et appelle à des suggestions pour apaiser la communauté affectée. Mais peut-on réellement « réparer » de tels incidents avec de simples mots?
Le débat sur les biais raciaux et les valeurs morales semble être loin d’être terminé dans le domaine de l’intelligence artificielle. Si ce genre de multiplier pointu peut apporter des solutions, peut-il également garantir que ceux qui les manipulent sauront toujours faire preuve d’intégrité dans leur démarche?
Source : Techcrunch