a group of people in a room

Credits image : Google DeepMind / Unsplash

Technologie
0

L’industrie de l’IA prend-elle suffisamment au sérieux les risques liés à cette technologie ?

Le boom de ChatGPT, Bard et d’autres modèles de langage de grande taille (LLM) soulève-t-il des questions inquiétantes sur l’intelligence artificielle (IA) ? Les avertissements de personnalités telles qu’Elon Musk concernant les risques liés à l’IA sont-ils maintenant confirmés par un groupe de leaders de l’industrie ?

Une déclaration d’une phrase a été publiée par le Centre pour la Sécurité de l’IA : « Atténuer les risques d’extinction liés à l’IA devrait être une priorité mondiale, au même titre que les autres risques à l’échelle de la société tels que les pandémies et les guerres nucléaires ».

Atténuer les risques d’extinction liés à l’IA devrait être une priorité mondiale, au même titre que les autres risques à l’échelle de la société tels que les pandémies et les guerres nucléaires.

Les signataires de cette déclaration comprennent le PDG d’OpenAI Sam Altman et le responsable de Google DeepMind Demis Hassabis. Des chercheurs lauréats du prix Turing tels que Geoffrey Hinton et Yoshua Bengio, considérés par beaucoup comme les pères fondateurs de l’IA moderne, ont également apposé leur nom. Est-ce la première fois que les experts en IA alertent sur les risques ?

Rappelons qu’en mars dernier, Elon Musk, Steve Wozniak et plus de 1 000 autres personnes ont demandé une pause de six mois sur l’IA afin de permettre à l’industrie et au public de rattraper le rythme effréné de cette technologie. Mais l’IA est-elle déjà consciente d’elle-même, comme certains le craignent ?

Bien qu’il ne soit pas probable que l’IA soit auto-consciente, elle présente déjà des risques de mauvaise utilisation et de préjudices liés notamment aux deepfakes et à la désinformation automatisée. Les LLM pourraient également changer la façon dont sont produits les contenus, les arts et la littérature, avec un impact potentiel sur de nombreux emplois. Comment les gouvernements abordent-ils ces problématiques ?

Le président américain Joe Biden a récemment déclaré qu’il reste à voir si l’IA est dangereuse, ajoutant que « les entreprises technologiques ont la responsabilité, à mon avis, de s’assurer que leurs produits sont sûrs avant de les rendre publics… L’IA peut aider à relever des défis très difficiles tels que les maladies et le changement climatique, mais elle doit également faire face aux risques potentiels pour notre société, notre économie et notre sécurité nationale ». Lors d’une récente réunion à la Maison Blanche, Altman a réclamé la régulation de l’IA en raison des risques potentiels.

Avec tant d’opinions différentes sur le sujet, cette nouvelle déclaration brève vise à montrer une préoccupation commune autour des risques associés à l’IA, même si les parties concernées ne sont pas toutes d’accord sur leur nature et leur ampleur. Alors, les préoccupations sur les risques les plus graves liés à l’IA avancée sont-elles partagées par un nombre croissant d’experts ?

Source : Engadget

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.