a small boat in the middle of a body of water

Credits image : Drew Dau / Unsplash

Intelligence ArtificielleTechnologie
0

Biden met l’IA en garde…rails !

Comme l’a dit un jour un sage connu de tous : « On ne peut pas jouer facilement avec l’intelligence artificielle. Gare à ne pas créer un monstre à notre propre insu! ». En effet, notre cher président américain Joe Biden a décrété qu’il est grand temps de devenir un peu sérieux au sujet de l’IA avec un nouvel arrêté pour des standards plus sûrs et sécurisés. Ceci concerne notamment les développeurs de l’IA, qui devront prévenir le gouvernement fédéral et partager les résultats de tous les tests de sécurité avant de lancer leurs créations à l’intention du public.

Cette vague d’IA générative, menée par les meneurs de la catégorie tels que ChatGPT et OpenAI, fait monter en pression le débat global sur la nécessité pour des gardes-fous. C’est pourquoi, en mai dernier, les dirigeants du G7 ont identifié des points essentiels à traiter lors de l’initiative dite « Hiroshima AI Process », tous les sept pays en accord pour proposer un code de conduite ‘’volontaire’’ pour les développements de l’IA.

La nouvelle directive de l’administration Biden-Harris est destinée à renforcer la sécurité et la confiance dans l’IA, prélude à une législation à venir.

Tout le monde semble s’y mettre, même les Nations Unies avec leur récente résolution pour explorer la gouvernance des IA. La Grande-Bretagne fait aussi partie du mouvement avec la tenue d’un sommet en cours sur la même thématique à Bletchley Park avec une intervention programmée de la vice-présidente américaine Kamala Harris.

Pour leur part, Biden et Harris font également de la cybersécurité une priorité avant tout engagement juridique formel, sécurisant des « engagements volontaires » des grands noms du développement de l’IA comme OpenAI, Google, Microsoft, Meta et Amazon. On comprend maintenant que cette étape était un prélude à un arrêté exécutif… Qui nous amène à aujourd’hui.

L’ordre exécutif met l’accent sur le fait que les développeurs des systèmes IA « les plus puissants » doivent partager les résultats de leurs tests de sécurité et les données y afférentes avec le gouvernement américain. Au fur et à mesure de l’évolution de l’IA, les implications pour la sécurité des citoyens américains augmentent également. Le décret met l’accent sur la protection du public contre les risques potentiels des systèmes IA.

La commande vise spécifiquement tout modèle de base qui pourrait représenter un risque pour la sécurité nationale, la sécurité économique ou la santé publique – ce qui, bien qu’ouvert à interprétation, devrait couvrir à peu près tous les modèles de base qui sont conçus. Les mesures visent à garantir la sécurité, la fiabilité et le respect de l’équité de l’IA avant sa mise à la disposition du public.

En attendant que tout cela se développe, on pourrait dire que Biden donne un avertissement en appuyant sur le frein. Mais n’oublions pas que s’il appuie trop fort, il pourrait bien faire un derapage controlé !

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.