«L’intelligence artificielle : l’art de rendre l’invisible visible… ou peut-être invisible ?»
Le jeudi dernier, le président de la commission judiciaire de la Chambre des représentants, Jim Jordan, a décidé de jouer les Don Quichotte de la côte Ouest. Il a envoyé des lettres à pas moins de seize entreprises américaines de technologie, y compris Google et OpenAI, exigeant des documents concernant d’éventuelles collaborations avec l’administration Biden pour censurer la « parole légale » dans les produits d’intelligence artificielle. On dirait bien que la chasse aux sorcières pourrait prendre une tournure très numérique.
Il n’est pas surprenant que Jordan, dont on pourrait presque croire qu’il garde un œil sur tout, ait déjà dirigé une enquête pour savoir si l’administration Biden et les géants technologiques ont bafoué la liberté d’expression en ligne, mais cette fois-ci, sa nouvelle cible semble être l’IA. Comme quoi, les guerres culturelles peuvent parfois ressembler à des matchs d’échecs où l’on passe du roi au cavalier.
Les va-et-vient entre technologie et politique, c’est comme une partie de ping-pong où la balle est toujours en IA.
Dans ses lettres, destinées à des grands noms comme Sundar Pichai de Google et Sam Altman d’OpenAI, Jordan s’appuie sur un rapport de 2024 de son comité qui affirme avoir découvert les intentions sournoises de l’administration Biden pour contrôler l’IA et museler la parole. Et comme d’habitude, Elon Musk et son laboratoire AI, xAI, semblent avoir échappé à la tempête… Peut-être est-ce une question d’alignement stellaire ?
Le 27 mars est le délai ultime pour présenter les documents désirés. Pendant ce temps, certaines entreprises technologiques, flairant déjà le vent, ont pris des mesures pour changer la façon dont leurs IA traitent les sujets sensibles, histoire de dire « nous faisons toujours notre shopping de Noël bien à l’avance ».
OpenAI, par exemple, a annoncé plus tôt cette année qu’il modifiait la façon dont il entraînait ses modèles d’IA pour mieux représenter la diversité des opinions. Cela ressemble presque à un cours intensif de diplomatie à l’américaine, ni plus ni moins. Anthropic, quant à lui, promet des réponses encore plus nuancées à son modèle Claude 3.7 Sonnet.
Néanmoins, certaines entreprises, peut-être plus prudentes, ont gardé leur cap. En préparation des élections de 2024, Google a décidé que sa création AI nommée Gemini ne s’aventurerait pas sur le terrain glissant des questions politiques. On dirait bien que même les IA apprennent à marcher sur des œufs.
Enfin, quelques dirigeants technologiques, tels que Mark Zuckerberg, ont enflammé la scène politique en affirmant que l’administration Biden aurait fait pression pour censurer certains contenus, comme ceux relatifs à la désinformation COVID-19. Pour les observateurs, cela pose une question : qui réellement tire les ficelles du marionnettiste technologique ?
Et pour clore avec un sourire : Les relations entre politiques et IA, c’est parfois comme chercher à régler son réveil avec un sablier. Ça semble logiquement possible, mais pratiquement périlleux !
Source : Techcrunch