a close up of a computer screen with a message on it

Credits image : Jonathan Kemper / Unsplash

Intelligence Artificielle
0

OpenAI se prépare-t-il à protéger l’humanité d’une IA débridée?

Est-ce que l’Intelligence Artificielle (IA) s’aventure dans des territoires de risque inconnus? Selon OpenAI, qui a annoncé la création d’une nouvelle équipe destinée à évaluer et à enquêter sur les modèles d’IA pour prévenir qu’ils qualifient de « risques catastrophiques », la réponse est un oui retentissant.

Dirigée par Aleksander Madry, directeur du Center for Deployable Machine Learning du MIT, cette équipe baptisée Preparedness se concentrera principalement sur la protection contre les dangers potentiels des futurs systèmes d’IA. Comment ces systèmes pourraient-ils être utilisés pour tromper ou manipuler les humains, comme dans les attaques de phishing? Qu’en est-il de leur capacité à générer du code malveillant?

Preparedness explorera également certaines menaces que certains pourraient juger extravagantes. Des menaces biologiques, chimiques, radiologiques ou nucléaires figurent en haut de la liste des préoccupations d’OpenAI concernant les modèles d’IA. Mais est-ce vraiment aussi loin qu’on pourrait le penser?

« OpenAI va plus loin que les scénarios de dystopie de science-fiction en consacrant des ressources à l’étude des risques de l’IA. »

Sam Altman, PDG d’OpenAI, est un pessimiste notoire de l’IA, craignant officiellement que l’IA ne puisse mener à l’extinction humaine. Mais face à ces déclarations, la question reste: ces mesures sont-elles une réelle préoccupation ou simplement une tactique pour attirer l’attention?

Non seulement OpenAI se prépare à faire face à des risques improbables, mais la société est également ouverte à explorer des domaines de risque d’IA plus tangibles et invite la communauté à soumettre ses idées pour des études de risque. Pourrait-on voir émerger des idées révolutionnaires grâce à cette initiative?

Par ailleurs, le rôle de l’équipe Preparedness ne se limitera pas à l’évaluation des risques potentiels. L’équipe sera également chargée d’élaborer une « politique de développement informée par les risques », qui détaillera l’approche d’OpenAI en matière d’évaluation des modèles d’IA et de surveillance des outils. Comment cette politique influencera-t-elle l’avenir du développement de l’IA?

Cette annonce d’OpenAI intervient lors d’un sommet majeur du gouvernement britannique sur la sécurité de l’IA, avec une déclaration d’intention claire: le développement de l’IA doit être géré avec prudence et responsabilité. Une déclaration réconfortante, mais suffira-t-elle à rassurer une humanité inquiète?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.