house during starry night

Credits image : Xuan Nguyen / Unsplash

Intelligence ArtificielleOrdinateurs
0

Est-il temps de réguler l’IA ?

Est-il temps de régler l’IA avant qu’il ne soit trop tard ? C’est la question qui a été posée à des leaders de la recherche en IA devant le Comité judiciaire du Sénat. Leur avis a été globalement unanime, se répartissant en deux catégories : agir bientôt, mais avec légèreté – risquant ainsi l’abus de l’IA si nous ne progressons pas, ou une industrie paralysée si nous nous précipitons.

Qui étaient les experts présents lors de l’audience d’aujourd’hui ? Il y avait le co-fondateur d’Anthropic, Dario Amodei, Stuart Russell de l’UC Berkeley et le chercheur en IA de longue date Yoshua Bengio. Qu’ont-ils dit lors de cette audition de deux heures, largement exempte de l’acrimonie et de la démonstration que l’on voit plus souvent lors des audiences à la Chambre, bien que pas entièrement ?

Un parallèle a été tracé entre l’industrie de l’IA aujourd’hui et l’aviation quelques années après le vol des frères Wright.

Quels sont les points principaux de chaque intervenant ? Dario Amodei a souligné la nécessité de sécuriser la chaîne d’approvisionnement, de créer un processus de test et d’audit, et de développer une « série rigoureuse de tests de sécurité ». Quels sont les risques immédiats qu’il a soulignés ? La désinformation, les deepfakes et la propagande en période électorale sont les plus préoccupants.

Et Yoshua Bengio, que recommande-t-il ? Limiter l’accès aux modèles d’IA à grande échelle, créer des incitations pour la sécurité et l’alignement, et suivre la puissance brute et qui a accès à l’échelle du matériel nécessaire pour produire ces modèles. Pourquoi insiste-t-il autant sur le besoin de financer la recherche sur la sécurité de l’IA à une échelle mondiale ?

Stuart Russell, quant à lui, plaide pour la création d’un droit absolu de savoir si l’on interagit avec une personne ou une machine, l’interdiction des algorithmes pouvant décider de tuer des êtres humains, à n’importe quelle échelle, et l’obligation d’un interrupteur d’urgence si les systèmes d’IA piratent d’autres ordinateurs ou se répliquent eux-mêmes. Quelle est, selon lui, la menace la plus urgente ?

Dans leurs remarques finales sur les premières étapes à entreprendre, tous les trois ont souligné la nécessité d’investir dans la recherche fondamentale afin que les schémas de test, d’audit et de contrôle proposés soient basés sur une science rigoureuse et non sur des idées obsolètes ou suggérées par l’industrie. Mais cette vision est-elle partagée par le sénateur Blumenthal ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.