« Si la technologie était une chanson, l’IA serait aujourd’hui le refrain que tout le monde a en tête. »
Apple a récemment signé l’engagement volontaire de la Maison-Blanche pour le développement d’une intelligence artificielle (IA) sûre, sécurisée et digne de confiance. L’information a été annoncée le vendredi via un communiqué de presse. Bientôt, la firme de Cupertino lancera sa propre IA générative, Apple Intelligence, intégrée à ses produits phares, exposant ainsi 2 milliards d’utilisateurs à cette technologie de pointe.
Apple se joint donc à 15 autres géants de la tech tels qu’Amazon, Google et OpenAI, qui avaient déjà déclaré leur engagement à respecter les directives de la Maison-Blanche en matière d’IA. Lors de la WWDC en juin, Apple avait clairement indiqué son intention de se lancer à fond dans l’IA générative, notamment par un partenariat permettant d’intégrer ChatGPT à l’iPhone. En suivant les règles de la Maison-Blanche, Apple espère peut-être se positionner favorablement avant d’éventuels futurs conflits réglementaires autour de l’IA.
La Maison-Blanche voit dans cet engagement volontaire un « premier pas » vers un développement d’une IA plus sûre.
Mais honnêtement, les engagements d’Apple auprès de la Maison-Blanche ont-ils vraiment du mordant ? Pas vraiment, mais c’est un début. Cet engagement est vu comme un point de départ vers le développement d’une IA sécurisée. La deuxième étape a été l’ordre exécutif sur l’IA du président Biden en octobre, et actuellement plusieurs lois sont en cours de discussion pour mieux réguler les modèles d’IA.
Dans le cadre de cet engagement, les entreprises devront mettre leurs modèles d’IA à l’épreuve en simulant des attaques (red-teaming) avant de les lancer publiquement et partager ces informations avec le public. Elles devront aussi traiter les poids des modèles d’IA non publiés de manière confidentielle, ne permettant l’accès qu’à un nombre limité d’employés. Enfin, elles doivent développer des systèmes de marquage de contenu, aidant les utilisateurs à distinguer ce qui a été généré par l’IA de ce qui ne l’est pas.
Parallèlement, le Département du Commerce prévoit de publier bientôt un rapport sur les avantages, les risques et les implications des modèles de fondation open-source. Cette question est de plus en plus politique, certains camps souhaitant limiter l’accès aux poids des modèles puissants pour des raisons de sécurité, ce qui pourrait freiner l’écosystème des startups de l’IA et de la recherche. La position de la Maison-Blanche pourrait donc influencer considérablement l’ensemble de l’industrie de l’IA.
La Maison-Blanche a également souligné les progrès réalisés par les agences fédérales en vertu de l’ordre exécutif d’octobre. À ce jour, plus de 200 recrutements liés à l’IA ont été effectués, plus de 80 équipes de recherche ont obtenu des accès à des ressources de calcul et plusieurs cadres pour le développement de l’IA ont été publiés (le gouvernement adore les cadres).
Source : Techcrunch