a group of computers

Credits image : Google DeepMind / Unsplash

Intelligence ArtificielleSociété
0

La régulation de l’intelligence artificielle est-elle urgente?

Est-il trop tard pour réguler l’intelligence artificielle? Gary Marcus, neuroscientifique, fondateur et auteur, lève des questions lors d’un témoignage face au Sénat américain et soulève des problématiques inquiétantes. Devons-nous craindre un impact sur la démocratie ou une utilisation par des acteurs malveillants?

Le PDG d’OpenAI, Sam Altman, et la directrice de la confiance et de la vie privée d’IBM, Christina Montgomery, ont également témoigné devant la commission judiciaire du Sénat. Pourquoi les législateurs sont-ils si intéressés par Altman et son entreprise? Parce qu’il est à la tête de l’une des entreprises les plus puissantes du moment et qu’il demande lui-même à ce que son travail soit régulé.

Gary Marcus soulève des problématiques inquiétantes et appelle à la régulation de l’IA.

A travers diverses tribunes, dont son bulletin d’information, son podcast et ses récents passages médiatiques, Marcus exprime son inquiétude quant à la montée en puissance non contrôlée de l’IA. Peut-on faire confiance à l’IA actuelle et sommes-nous proches d’une intelligence artificielle générale? Selon lui, l’IA actuelle n’est pas une menace existentielle, mais elle représente un danger pour la démocratie. Quel impact pourrait-elle avoir sur nos vies?

Yann LeCun, scientifique en chef de l’IA chez Meta, a récemment discuté avec Marcus de l’intérêt de l’apprentissage profond. LeCun pense que ces grands modèles linguistiques sont sans danger, tandis que Marcus estime qu’ils pourraient constituer une menace pour la démocratie. Les législateurs doivent-ils intervenir pour prévenir les risques potentiels de ces outils?

Lors du témoignage, Sam Altman n’a pas mentionné son inquiétude concernant les armes autonomes, pourtant considérées il y a quelques années comme un enjeu majeur. Ce sujet crucial n’a-t-il pas été abordé pour une raison particulière? Les prochains débats pourraient-ils l’aborder?

Les questions concernant les systèmes ouverts et fermés n’ont été que brièvement évoquées, soulevant des questions sur la meilleure approche à adopter. Si certains plaident pour la liberté et l’open-source, d’autres soulignent les risques liés à la sécurité.

Alors que Meta a rendu son modèle de langage LLaMA accessible à tous, Marcus considère que cela pourrait être imprudent. Devrions-nous instaurer un processus de régulation pour l’intelligence artificielle, similaire à la FDA pour la santé? Des autorités impartiales pourraient-elles être en charge de la mise en place de ces règles et de leur application?

Quoi qu’il en soit, les enjeux de l’intelligence artificielle sont indéniables et l’intervention des législateurs semble de plus en plus nécessaire. Devrons-nous agir vite pour protéger nos démocraties et éviter des dérives potentiellement néfastes?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.