Avons-nous jamais imaginé que l’intelligence artificielle générale (IAG) pourrait être à portée de main ? C’est exactement ce que Sam Altman, PDG d’OpenAI, semble suggérer dans son récent billet de blog. OpenAI, cette start-up autrefois obscure et maintenant incontournable dans le domaine de l’IA, prétend non seulement savoir comment créer l’IAG, mais elle vise déjà la « superintelligence ». Que signifie réellement cette annonce audacieuse, et à quel point devrions-nous prendre ces déclarations au sérieux ?
Selon Altman, l’objectif ultime va bien au-delà de nos outils actuels de l’IA. « Nous aimons nos produits actuels, mais nous sommes ici pour l’avenir glorieux », écrit-il. Avec la superintelligence, la « découverte scientifique et l’innovation » pourraient connaître une accélération massive, apportant une abondance et une prospérité jamais vues auparavant. Mais cette vision d’avenir ressemble-t-elle à une utopie ou à un danger potentiel pour l’humanité ?
Rappelons qu’Altman estime que la superintelligence pourrait émerger dans « quelques milliers de jours ». Une prédiction ambitieuse, surtout en considérant que l’IAG elle-même reste un concept flou. OpenAI en a sa propre définition : « des systèmes hautement autonomes qui surpassent les humains dans la plupart des travaux économiquement précieux ». Cependant, derrière cette définition, se cachent des questions complexes sur le potentiel impact économique et sociétal de telles technologies.
Comment concilions-nous le désir de progrès avec la nécessité de sécurité dans le monde imprévisible de l’IA ?
Altman suggère que les « agents IA », capables d’effectuer des tâches de manière autonome, pourraient bientôt « rejoindre la force de travail ». Mais cette confiance envers les technologies émergentes occulte-t-elle les limitations techniques actuelles de l’IA ? En effet, ces systèmes affichent des lacunes évidentes, comme des erreurs de jugement ou des coûts prohibitifs qui soulèvent des questions sur leur viabilité à grande échelle.
Comment OpenAI envisage-t-elle de mener cette transition alors qu’elle a récemment dissous des équipes dédiées à la sécurité des systèmes superintelligents ? Plusieurs chercheurs en sécurité ont quitté l’entreprise, préoccupés par son orientation de plus en plus commerciale. La restructuration d’OpenAI pour séduire les investisseurs externes ne risque-t-elle pas d’entraîner un glissement de ses priorités fondamentales ?
Enfin, lorsque Altman est interrogé sur les critiques concernant le manque de focalisation sur la sécurité, il se réfère simplement à leur « historique ». Mais est-ce suffisant pour apaiser les craintes dans un secteur où l’innovation avance souvent plus vite que les mesures de protection ? Peut-être que la véritable question n’est pas quand la superintelligence arrivera, mais si nous sommes prêts à y faire face lorsqu’elle le fera.
Alors que nous regardons vers cet avenir potentiel, une question persiste : serons-nous préparés pour la superintelligence, ou allons-nous laisser notre obsession pour le progrès nous aveugler face aux risques ?
Source : Techcrunch