Comment résumer l’article suivant en mettant l’accent sur un style plus interrogatif et journalistique ? Dans celui-ci, plusieurs experts en intelligence artificielle (IA) abordent les préoccupations éthiques entourant la technologie. Que peuvent apprendre les lecteurs de cette conversation ?
Meredith Whittaker, présidente de l’application de messagerie sécurisée Signal ; Navrina Singh, cofondatrice et PDG de Credo AI ; et Alex Hanna, directeur de recherche à l’Institut de recherche en IA distribuée, ont tous trois adressé un message clair au public : ne vous laissez pas distraire par les promesses et les menaces associées à l’avenir de l’IA. L’IA n’est-elle pas magique, entièrement automatisée et déjà intrusive ?
Hanna souligne, par exemple, le rôle des nombreuses personnes dans le monde qui aident à former les modèles linguistiques actuels. Leur travail est-il suffisamment reconnu ? Whittaker, quant à elle, met l’accent sur les dangers de la technologie sous-jacente, en particulier avec la concentration croissante du pouvoir entre les mains de quelques acteurs clés de l’IA.
En somme, ces experts nous invitent à ne pas nous laisser distraire par les promesses de l’IA, mais plutôt à nous concentrer sur ses préoccupations éthiques.
Whittaker donne un exemple de quelqu’un qui demande un prêt bancaire et qui se voit refuser sans savoir qu’un système basé sur l’IA a déterminé, à partir de données obtenues sur les réseaux sociaux, qu’il n’était pas solvable. Comment résoudre ces problèmes si le grand public en ignore l’existence ?
Les experts discutent également de la difficulté pour les employés de certaines entreprises de s’exprimer sur les préoccupations éthiques liées à l’IA sans craindre de perdre leur emploi. Singh souligne l’importance du leadership et des valeurs de l’entreprise à cet égard.
Enfin, Whittaker évoque la notion d’IA en tant que technologie de surveillance : est-il pertinent de s’interroger sur le degré d’intrusion de l’IA dans nos vies ?
Whittaker pense que les utilisateurs pourraient, à terme, se tourner vers des technologies préservant la vie privée, comme Signal, si la concentration du pouvoir dans l’IA continue de les inquiéter. Mais il est également essentiel d’exercer une pression suffisante pour que l’IA ne soit pas acceptée sans remise en question. Les enjeux sont-ils suffisamment compris ?
Source : Techcrunch