a group of different colored toothbrushes sitting on top of a table

Credits image : Google DeepMind / Unsplash

Technologie
0

Les initiatives de sécurité de l’IA sont-elles suffisantes pour protéger l’avenir ?

La sécurité de l’IA, est-ce vraiment une priorité pour les grandes entreprises comme OpenAI et Anthropic ? Ce sujet crucial nous conduit à nous interroger sur les intentions réelles de ces entreprises technologiques en partageant leurs modèles d’intelligence artificielle avec l’US AI Safety Institute. Dans quel but ces géants technologiques s’engagent-ils à collaborer, et quels sont les impacts de cette coopération sur le futur de l’IA ?

OpenAI et Anthropic ont récemment accepté de partager leurs modèles d’IA, avant et après leur lancement public, avec l’US AI Safety Institute. Pourquoi une telle initiative maintenant et quelles en sont les implications ? Cet institut, créé par une ordonnance exécutive du président Biden en 2023, est censé fournir des retours sur la sécurité aux entreprises pour améliorer leurs modèles. Elément de communication ou véritable engagement ?

Les déclarations de Google soulèvent d’autres questions. Un porte-parole de l’entreprise a mentionné qu’ils sont en discussion avec l’agence et partageront plus d’informations lorsqu’elles seront disponibles. Que cachent ces « discussions » et quels seront les prochains mouvements de Google dans ce domaine ? Entre-temps, Google a lancé de nouveaux modèles de chatbots et générateurs d’images pour sa plateforme Gemini. Est-ce un signe d’une course technologique effrénée malgré les soucis de sécurité ?

Un mémorandum d’accord formel mais non contraignant montre l’engagement de ces entreprises dans la sécurité de l’IA.

Elizabeth Kelly, directrice de l’US AI Safety Institute, a déclaré : « La sécurité est essentielle pour alimenter l’innovation technologique révolutionnaire. Ces accords ne sont qu’un début, mais ils constituent un jalon important. » Est-ce suffisant pour dissiper les peurs liées aux dangers de l’IA, tels que les cyberattaques ou les armes biologiques ? Comment ces « débuts » peuvent-ils réellement protéger contre des menaces si graves ?

Vice-présidente Kamala Harris avait mis en garde que « l’IA a le potentiel de faire du bien comme de causer des dommages profonds ». L’accord, bien que pionnier, laisse planer des questions : comment assurer une transparence totale et une réelle efficacité des mesures prises ? L’US AI Safety Institute prévoit également de collaborer avec l’UK AI Safety Institute. Cette coalition internationale sera-t-elle capable de répondre aux attentes ?

Il est intéressant de noter que pendant que ces initiatives se déploient au niveau fédéral, des régulateurs au niveau des états essayent de mettre en place des garde-fous. En Californie, une loi sur la sécurité de l’IA (SB 10147) exige des tests de sécurité pour les modèles d’IA coûteux et impose des mesures d’arrêt en cas de perte de contrôle. Est-ce un simple coup d’éclat politique ou une réelle tentative de régulation ?

Contrairement à l’accord non contraignant avec le gouvernement fédéral, la loi californienne permet au procureur général de l’État de poursuivre les développeurs d’IA en cas de non-conformité. Mais est-ce là une garantie suffisante ? Et comment cela influencera-t-il d’autres législations potentielles dans le reste du pays ?

À la lumière de ces développements, une question persiste : Ces efforts suffisent-ils à sécuriser l’avenir de l’IA, ou ne sont-ils que des pansements temporaires sur une plaie grandissante ?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.