“L’intelligence, c’est comme les parachutes : quand on n’en a pas, on s’écrase.” Cette citation de Pierre Desproges pourrait bien s’appliquer à l’IA aussi, n’est-ce pas ?
Ah, OpenAI, la star des algorithmes et des modèles IA ! Alors que les départs de Mira Murati et Bob McMillan, deux figures de proue de la compagnie, font les gros titres, il ne faudrait pas négliger les petites notes croustillantes d’une autre nouvelle. Anna Makanju, la vice-présidente des affaires globales d’OpenAI, a récemment fait des commentaires intrigants au sujet des biais de l’IA.
Lors d’un panel à l’événement « Summit of the Future » de l’ONU, Makanju a évoqué les modèles de « raisonnement » émergents comme l’o1 d’OpenAI. Selon elle, ces modèles pourraient réduire les biais de manière mesurable en s’auto-évaluant et en adhérant mieux aux règles visant à prévenir les réponses « nuisibles ». En gros, ces modèles feraient une introspection digne d’un psychanalyste avisé.
L’IA commence à se regarder dans le miroir, mais son reflet est encore flou.
Makanju décrit même ces modèles comme étant à la pointe de l’auto-analyse, capables de détecter et de corriger leurs propres erreurs de raisonnement. Une performance pratiquement parfaite, selon ses dires. Mais dans un monde où l’auto-perfection n’est qu’un mythe, un soupçon de scepticisme est de mise.
En effet, les tests internes d’OpenAI montrent que l’o1, bien qu’en général moins susceptible de produire des réponses toxiques ou discriminatoires, a parfois performé pire que son grand frère, le modèle non-raisonnant GPT-4o. Pire encore, l’o1-mini, une version plus éco et efficace, est étonnamment plus encline à des discriminations explicites basées sur le genre, la race et l’âge. Ce qui prouve que même les IA peuvent avoir leurs mauvais jours.
Mais attendons un peu avant de ranger les confettis. Ces modèles, bien qu’encourageants, ne sont pas encore le Graal. Ils sont lents comme un escargot en vacances, coûtent plus cher qu’un dîner au Michelin et ne brillent pas toujours par leurs performances. Il reste donc beaucoup de chemin à parcourir avant qu’ils ne deviennent une solution universelle et abordable pour tous.
En conclusion, si l’on veut que les modèles de raisonnement incarnent l’avenir brillant et sans biais de l’IA, ils devront s’améliorer bien au-delà de la simple réduction des préjugés. Sans cela, seuls les clients aux poches profondes pourront se permettre le luxe de leurs imperfections.
Donc, oui, l’IA pourrait bien finir par se débarrasser de ses biais, mais pour le moment, elle est encore en mode « raisonnement lent ». Comme on dit, Rome ne s’est pas construite en un jour, et visiblement, une IA objective non plus!
Source : Techcrunch