a close up of a red plastic container filled with food

Credits image : Google DeepMind / Unsplash

Intelligence Artificielle
0

OpenAI et la sécurité : le grand « AI » magicien dévoile (un peu) son jeu

« Il y a toujours de la lumière dans ‘AI’… jusqu’à ce que celle-ci décide d’éteindre l’interrupteur. » Ah! L’intelligence artificielle, cet enfant prodige de notre ère numérique, qui nous fascine autant qu’elle nous inquiète. OpenAI, le maître d’œuvre derrière la poule aux œufs d’or, mieux connue sous le nom de GPT-3, aurait-elle peur de se brûler les doigts à sa propre création? Voilà la question que tout le monde se pose à la suite de leur récente annonce.

Vous l’avez sûrement lu dans les ‘médias sérieux’ que ces changements de politique interne sont généralement aussi passionnants qu’un épisode en noir et blanc de « Parlons Fiscalité ». Mais, avec l’IA, il faut s’attendre à tout. OpenAI nous prouve que son propre film de science-fiction peut très vite devenir réalité. À la lumière de la révolte des dirigeants survenue récemment, ils ont donc dégainé leur plus nouvelle invention: un « cadre de préparation » pour contrer les risques catastrophiques que pourraient engendrer leurs créations.

Qu’est-ce qui se cache derrière ces portes blindées de sécurité informatique? En termes simples, des équipes de choc dont les titres font rêver (ou cauchemarder) : l’équipe des « systèmes de sécurité » pour les abus systématiques des IA actuelles, et l’équipe de la « préparation » qui joue à Madame Irma en essayant de prédire les risques des modèles en développement. Sans oublier l’équipe du « superalignement », les garde-fous théoriques pour ces entités surpuissantes qui, on l’espère, demeurent dans le domaine de la fiction. Pour l’instant.

OpenAI vise à couper court à toute apocalypse robotique avant que votre aspirateur ne se transforme en Terminator.

Les différents niveaux de risques sont catégorisés avec rigueur. Le mantra? Si l’évaluation révèle un risque « élevé », alors le model est bloqué au garage. Si par contre on touche au « critique », le modèle retourne dans son carton avant même de dire « Bonjour monde ».

Voyez-vous, il y a une petite équipe d’experts intrépides, formant le « groupe consultatif de sécurité » qui chapeaute le tout. Leur mission, si toutefois ils l’acceptent, est de scruter le travail des techniciens et de faire des recommandations à partir de leur vigie haut perchée. Ces recommandations atterrissent simultanément dans les boîtes mail du PDG et CTO, ainsi que sur le bureau du conseil d’administration, qui a maintenant le super-pouvoir de tout mettre à l’arrêt.

Dans cet ordre d’idées, si les innovateurs de l’IA sont les magiciens qui façonnent l’avenir, alors ce conseil est le grand Gandalf de service, s’écriant « Vous ne passerez pas! » face à toute menace. Cependant, avec des nouveaux arrivants dans le conseil plus intéressés par le son de la caisse enregistreuse que par les murmures éthiques de HAL 9000, certains s’interrogent… la sécurité triomphera-t-elle de l’appât du gain?

C’est dans cette ambiance mi-bureaucratique, mi-dystopique que les pieds d’argile d’OpenAI se dévoilent. Annoncer que leurs intelligences artificielles sont trop puissantes pour être partagées avec le monde, c’est un peu comme une IA qui se vanterait de pouvoir résoudre le Rubik’s Cube en un clignement d’œil mais qui refuserait de le faire devant public. Transparence? Un mot aussi insaisissable que la compréhension totale d’une IA par ses créateurs.

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.