Quelles sont les véritables motivations derrière les récentes collaborations d’OpenAI avec des instances de sécurité publique? Est-ce un ambitieux projet de transparence ou un simple écran de fumée pour calmer les critiques?
Récemment, Sam Altman, PDG d’OpenAI, a annoncé que l’entreprise collabore avec l’Institut de Sécurité de l’IA des États-Unis pour tester en avant-première son prochain modèle de génération d’IA majeur. Cet effort vise à répondre aux risques potentiels associés à ces nouvelles technologies. Mais pourquoi une telle initiative maintenant? L’annonce reste vague sur les détails, laissant planer des doutes quant aux vraies intentions d’OpenAI.
En juin, OpenAI avait déjà signé un accord similaire avec une entité britannique de sécurité de l’IA. Ces actions peuvent-elles réellement contrebalancer les critiques croissantes selon lesquelles l’organisation privilégie la performance de ses technologies au détriment de la sécurité? Des reportages ont révélé qu’en mai, OpenAI a démantelé une unité clé dédiée à la prévention des dérives des systèmes « superintelligents », décision ayant entraîné la démission de figures importantes comme Jan Leike et Ilya Sutskever.
OpenAI tente-t-il une récupération réglementaire au travers de ses récentes alliances?
Face à la pression, OpenAI avait promis de supprimer certaines clauses de non-dénigrement et de créer une commission de sécurité dédiée, allouant également 20% de ses ressources de calcul à la recherche en sécurité. Pourtant, ces mesures n’ont pas suffi à apaiser les observateurs, notamment après que l’entreprise a confié la commission de sécurité à des membres internes et relocalisé un exécutif clé de la sécurité de l’IA vers un autre poste.
Répondant aux critiques des législateurs, OpenAI affirme être dévouée à l’implantation de protocoles de sécurité rigoureux à chaque étape de leur processus. Pourtant, la timing des annonces et des engagements pris par OpenAI soulève la question de savoir si l’entreprise cherche à influencer la politique de l’IA aux États-Unis. En effet, la société a récemment approuvé le Future of Innovation Act, qui pourrait autoriser l’Institut de Sécurité de l’IA en tant qu’entité régulatrice de l’IA à l’échelle fédérale.
Quant à Altman, il siège aussi au Conseil de Sécurité et de Sûreté de l’IA du Département de la Sécurité Intérieure des États-Unis. OpenAI a également considérablement accru ses dépenses en lobbying fédéral, atteignant 800 000 dollars pour les six premiers mois de 2024 contre 260 000 pour toute l’année 2023.
En somme, ces collaborations sont-elles réellement orientées vers la sécurité ou s’agit-il d’une tentative d’OpenAI pour maîtriser l’avenir des réglementations de l’IA à son avantage?
Source : Techcrunch