Est-il judicieux pour les États-Unis de poursuivre une course effrénée vers le développement d’une intelligence artificielle aux capacités surhumaines ? C’est la question que soulèvent Eric Schmidt, ancien PDG de Google, Alexandr Wang de Scale AI et Dan Hendrycks du Center for AI Safety dans leur récent document de politique.
Dans ce document, intitulé « Superintelligence Strategy », les auteurs déconseillent un projet de type « Manhattan » pour l’intelligence artificielle généraliste (AGI), par crainte de provoquer une riposte agressive de la Chine. Une telle démarche pourrait-elle vraiment amener à une escalade des tensions internationales, voire à un cyberconflit déstabilisant ?
Ce document arrive à un moment où certains leaders américains de l’industrie et de la politique, comme le secrétaire à l’Énergie Chris Wright, prônent justement une approche ambitieuse pour le développement de l’AGI, sur le modèle du programme de la bombe atomique des années 1940. Néanmoins, Schmidt et ses collègues estiment que cette quête de suprématie technologique pourrait avoir des conséquences lourdes.
Est-il possible que la course à une AI surintelligente déclenche des mesures hostiles et une instauration de tensions ?
Pour Eric Schmidt et ses collaborateurs, c’est un peu comme si les États-Unis étaient engagés dans une sorte de « mutually assured destruction » mais avec l’IA. À travers l’histoire, les puissances mondiales ont appris que monopoliser des armes nucléaires peut inciter des frappes préventives ; pareillement, essayer de dominer l’IA pourrait inciter d’autres puissances à réagir.
Devrait-on vraiment comparer l’IA aux armes nucléaires ? Certains leaders déjà le pensent, étant donné que le Pentagone mesure déjà l’intérêt de l’IA comme un atout militaire de premier ordre. Cependant, Schmidt et ses co-auteurs préconisent d’innover autrement. Un concept novateur est la « Mutual Assured AI Malfunction » (MAIM), visant à désamorcer les projets d’IA menaçants de façon proactive.
Plutôt que de « gagner la course à la surintelligence », les États-Unis devraient-ils se concentrer sur la dissuasion des autres pays à créer de telles technologies ? Les auteurs recommandent d’élargir l’arsenal de cyberattaques pour neutraliser les projets d’IA dangereux d’autres nations, tout en limitant l’accès des adversaires à des puces d’IA avancées.
La dichotomie entre les « alarmistes », qui voient l’IA comme une catastrophe inévitable, et les « autruches », qui préfèrent ignorer les implications et avancer, peut-elle être surmontée par une approche plus modérée ? Le document propose une stratégie qui repose davantage sur la prudence.
Face à cette double menace, est-il temps pour les États-Unis de réévaluer leur position sur l’AGI et d’adopter une approche plus défensive ? Alors que la politique américaine sur l’IA ne s’élabore pas en vase clos, Schmidt et ses collègues mettent en garde : l’avenir de l’IA pourrait bien nécessiter un changement de perspective stratégique.
Source : Techcrunch