grayscale photo of men in black suit

Credits image : Boston Public Library / Unsplash

HardwareIntelligence ArtificielleSociétéTechnologie
0

Meta-Therapie de l’Erreur IA

C’est bien connu, chez Meta, pour innover, il suffit de rattraper les erreurs du passé… avec de nouvelles erreurs. Quoi de mieux qu’une citation humoristique pour commencer : « L’Intelligence Artificielle est la nouvelle frontière, mais seulement pour certains visages connus. » Eh oui, Meta a récemment annoncé la création d’un conseil consultatif sur l’IA composé uniquement d’hommes blancs. Surprise, surprise !

Meta n’a pas tardé pour justifier cette décision en stipulant que ce conseil va offrir des « informations et des recommandations sur les avancées technologiques et l’innovation ». Notons que ce conseil est différent du conseil d’administration et du conseil de surveillance de Meta, qui eux, sont plus diversifiés en termes de genre et de race. Ce fameux conseil IA, quant à lui, n’a aucune obligation fiduciaire. Chic, non?

Ce qui est intéressant, c’est que ce conseil est exclusivement composé de gens d’affaires et d’entrepreneurs, sans la moindre trace d’éthiciens ou d’académiques spécialisés en recherche approfondie. Alors certes, des anciens de Stripe, Shopify et Microsoft ont une belle feuille de route en termes de produits miracles, mais l’IA, mes chers amis, n’est pas exactement un produit comme les autres. Avec les IA, ce n’est pas « Oops, notre produit a planté », c’est plutôt « Oups, notre IA est biaisée et a causé des dommages colossaux à des communautés déjà marginalisées ».

Un conseil consultatif tout blanc pour l’IA de Meta? Peut-on vraiment attendre autre chose?

Pour mieux comprendre l’importance de la diversité dans le développement des IA, citons Sarah Myers West de l’AI Now Institute, qui souligne que cette technologie sujette à de nombreuses erreurs impacte de manière disproportionnée les communautés ayant historiquement subi des discriminations. En parlant d’erreurs, saviez-vous que 96% des vidéos deepfake étaient des vidéos explicites non-consensuelles ciblant des femmes? On est loin de la réalité augmentée dont on rêve tous.

En janvier dernier, des deepfakes pornographiques de Taylor Swift ont fait le tour du web, attirant des millions de vues avant une intervention musclée des plateformes sociales pour purifier les recherches. Mais si vous n’êtes pas une célébrité internationale… Bonne chance! On a aussi vu fleurir des deepfakes entre collégiens et lycéens, amplifiés par des applis très accessibles. Laissez-moi vous dire que le futur, il a un goût aigre-doux.

Chez Meta, ils ont même laissé passer des pubs pour une application déshabillant les photos de femmes, avec des images de célébrités mineures pour attirer les curieux. Ils n’ont réagi que quand le scandale a éclaté dans les médias. Ça vous laisse rêveur sur leur vigilance. Pas étonnant que leur Conseil de Surveillance soit en plein examen de leurs échecs en matière de contenu explicite généré par IA.

La représentation des femmes et des personnes de couleur dans le développement de l’IA est cruciale. Les technologies qui se développent sans leur participation peuvent avoir des conséquences désastreuses, comme les voitures autonomes qui détectent mal les personnes de couleur ou les assistants vocaux qui peinent avec les accents diversifiés. En somme, c’est tout un programme pour éviter que la technologie ne devienne un miroir amplifiant les injustices sociétales actuelles.

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.