Comment une initiative visant à démocratiser l’usage de la technologie peut-elle aussi entraîner des risques éthiques importants ? Le partenariat entre MLCommons et Hugging Face paraît, à première vue, révolutionnaire. Ils ont lancé l’une des plus grandes collections publiques d’enregistrements vocaux destinés à la recherche en IA. Mais que cache cet ambitieux projet ?
Avec plus d’un million d’heures d’audio en 89 langues, le jeu de données, baptisé « Unsupervised People’s Speech », vise à soutenir la recherche et le développement dans divers domaines technologiques. Leurs intentions semblent louables : améliorer les modèles de langues moins dotées en ressources et renforcer la reconnaissance vocale, entre autres. Cependant, n’est-il pas juste de s’interroger sur les risques potentiels liés à une telle initiative ?
La question qui se pose avant tout est celle des biais potentiels. La majorité des enregistrements proviennent d’Archive.org, où les contributions anglophones, et plus précisément américaines, sont prédominantes. En se basant sur ces données, les systèmes d’IA pourraient reproduire des préjugés existants. La reconnaissance vocale s’avérera-t-elle aussi performante pour les locuteurs non natifs ou les accents variés ?
La voix humaine, porteuse d’identité, doit-elle être traitée avec plus de précautions ?
Une autre préoccupation majeure réside dans l’utilisation des enregistrements. Certaines voix figurant dans le jeu de données pourraient ne pas être informées de leur utilisation dans la recherche IA, notamment à des fins commerciales. Même si MLCommons affirme que les enregistrements sont soit du domaine public, soit sous licence Creative Commons, le risque d’erreurs persiste. Que faire si l’appropriation de certaines voix est contestée ?
L’analyse du MIT a révélé que des centaines de jeux de données en IA manquaient d’informations sur les licences et contenaient des erreurs. Des défenseurs comme Ed Newton-Rex soulignent qu’il faudrait éviter aux créateurs de devoir « se désinscrire » des jeux de données en IA, un processus fastidieux qui pèse sur eux. Pourquoi ce fardeau revient-il à ceux dont le travail est utilisé à des fins concurrentielles ?
En réponse, MLCommons promet d’améliorer continuellement la qualité de Unsupervised People’s Speech. Mais, dans un monde où la vigilance doit être de mise, ne serait-il pas prudent pour les développeurs de faire preuve d’une grande prudence en utilisant ces données ?
Face à ces enjeux, la question demeure : jusqu’où est-il sage d’étendre les frontières de la recherche, tout en préservant l’éthique et le respect des contributions individuelles ?
Source : Techcrunch