« L’apocalypse a-t-elle une prise USB? ». Dans un monde où l’intelligence artificielle se développe rapidement, des législateurs américains des deux chambres ont introduit un projet de loi cette semaine visant à interdire formellement à l’IA de lancer des armes nucléaires. Bien que la politique actuelle du Département de la Défense impose qu’un être humain soit « dans la boucle » pour les décisions critiques, la nouvelle proposition, intitulée « Block Nuclear Launch by Autonomous Artificial Intelligence Act », souhaite mettre en place cette politique et éviter l’utilisation de fonds fédéraux pour un lancement nucléaire automatisé sans « contrôle humain significatif ».
Ce projet de loi rassemble des personnalités politiques telles que le sénateur Ed Markey (D-MA) et les représentants Ted Lieu (D-MA), Don Beyer (D-VA) et Ken Buck (R-CO). Ils visent à protéger les « générations futures des conséquences potentiellement dévastatrices » en insistant sur le fait que les êtres humains doivent seuls avoir le pouvoir de commander, de contrôler et de lancer des armes nucléaires.
Les chatbots d’intelligence artificielle (comme ChatGPT, GPT-4 et Google Bard) et les générateurs d’images ont conquis le monde ces derniers mois, et plusieurs experts estiment que si ces technologies ne sont pas réglementées, l’humanité pourrait en subir de graves conséquences. Les autorités sont souvent trop lentes à s’adapter aux changements technologiques rapides, a déclaré Cason Schmit, professeur adjoint de santé publique à l’université Texas A&M.
Le projet de loi vise à protéger les générations futures des conséquences potentiellement dévastatrices en insistant sur le fait que les êtres humains doivent seuls avoir le pouvoir de commander, de contrôler et de lancer des armes nucléaires.
Bien que le gouvernement fédéral n’ait pas encore adopté de législation basée sur l’IA depuis l’essor des chatbots, en mars dernier, un groupe de dirigeants technologiques et d’experts en IA a signé une lettre demandant une pause immédiate de six mois dans le développement de systèmes d’intelligence artificielle au-delà de GPT-4. De plus, l’administration Biden a récemment sollicité l’avis du public concernant d’éventuelles régulations de l’IA.
Le représentant Lieu a souligné l’importance d’assurer un contrôle humain lorsqu’il s’agit d’employer des armes nucléaires. L’IA ne peut jamais remplacer le jugement humain dans ce domaine, selon lui.
Compte tenu du climat politique actuel à Washington, l’adoption d’un projet de loi, même le plus sensé, n’est pas garantie. Cependant, une proposition aussi fondamentale que « ne laissons pas les ordinateurs décider d’annihiler l’humanité » pourrait servir de test pour déterminer à quel point le gouvernement américain est prêt à faire face à cette technologie en rapide évolution.
Après tout, si nous n’empêchons pas les machines de prendre le contrôle, comment saurons-nous qu’elles ne décideront pas un jour d’appuyer sur le bouton rouge pour des raisons inconnues? Notre survie pourrait-elle dépendre d’un simple «oui» ou «non» généré par l’IA?
Source : Engadget