a group of hands reaching up into a pile of food

Credits image : Google DeepMind / Unsplash

HardwareIntelligence ArtificielleTechnologie
0

OpenAI freine-t-il vraiment sur la sécurité pour rester dans la course à l’IA ?

La course à l’intelligence artificielle peut-elle vraiment se faire sans sacrifier la sécurité ? Telle est la question qui plane au-dessus des nouveaux changements apportés par OpenAI à son Preparedness Framework, le système censé garantir la sûreté de leurs modèles d’IA. À la lumière de récentes annonces et d’un contexte de concurrence féroce, faut-il s’inquiéter d’un assouplissement des règles internes chez OpenAI, ou s’agit-il d’une simple adaptation à un marché en ébullition ?

Cette mise à jour du cadre d’évaluation de la sécurité, dévoilée sur le blog d’OpenAI, révèle un changement de ton surprenant : désormais, la start-up n’exclut pas d’« ajuster » ses exigences en matière de sécurité si un concurrent venait à lancer un modèle jugé “à haut risque” sans protections équivalentes. Pourquoi modifier les règles du jeu maintenant ? Est-ce la pression du temps, ou le spectre de la perte de leadership dans la course à l’IA qui pousse OpenAI à revoir ses priorités ?

Les suspicions ne manquent pas, d’autant plus qu’OpenAI fait déjà face à des critiques sur ce front. Douze anciens employés ont même déposé un mémoire contre l’entreprise, craignant que la future restructuration pousse OpenAI à négliger davantage la sécurité. De plus, d’après le Financial Times, certains tests de sécurité seraient désormais expédiés en moins d’une semaine, alors même que des versions différentes des modèles pourraient être testées et déployées, soulevant ainsi la question : ces contrôles sont-ils encore fiables ?

Malgré les déclarations rassurantes d’OpenAI, de nombreux signes laissent penser à un glissement discret des exigences de sécurité.

OpenAI tente pourtant de rassurer et martèle qu’il n’ajustera pas ses politiques à la légère. Mais comment être sûr que derrière ces mots, la réalité ne soit pas plus nuancée ? La société affirme qu’elle “confirmerait rigoureusement” tout changement dans le paysage des risques avant de modifier ses exigences, et que les protections resteraient “plus élevées”. Dans ce climat de défiance, qui croire ?

Par ailleurs, OpenAI mise de plus en plus sur l’automatisation de ses tests. Peut-on vraiment remplacer l’œil humain par des algorithmes, surtout pour évaluer l’imprévisibilité d’un système d’IA ? Si les tests automatisés accélèrent la sortie de nouveaux modèles, à quel prix pour la sûreté des utilisateurs ? Plusieurs sources internes affirment d’ailleurs que ces outils automatiques ne sont pas appliqués systématiquement sur la version finale des modèles.

Étonnamment, certains changements n’ont pas été mis en avant par OpenAI. Par exemple, des tests de sécurité sur les modèles « finetuned » (affinés pour des applications spécifiques) ne seraient plus obligatoires. Est-ce là une concession discrète pour gagner du temps sur le marché, ou le signe d’un changement de philosophie ?

Le nouveau cadre revoit également la manière de classer les modèles en fonction du risque. Deux seuils sont désormais définis : “haute capacité”, décrivant un modèle capable d’amplifier des risques existants, et “capacité critique”, évoquant la possibilité de créer des risques sans précédent. Faut-il s’inquiéter qu’un système puisse bientôt échapper à ses contrôles, se répliquer, ou empêcher sa propre extinction ?

La question cruciale reste alors : la sécurité doit-elle indéfiniment s’effacer devant la rapidité et la compétition dans l’IA, ou faudra-t-il bientôt repenser le rapport de force entre innovation et prudence ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.