a close up of a red plastic container filled with food

Credits image : Google DeepMind / Unsplash

Intelligence Artificielle
0

Pourrons-nous faire confiance à l’IA générative ?

Quelle est la fiabilité des nouvelles intelligences artificielles génératives en termes de vérité et de sécurité ?

Ces derniers temps, des preuves ont été apportées, voyant les chatbots de Microsoft et Google annoncer un gagnant du Super Bowl avant même que le match ne commence. Ces erreurs prennent une tournure plus inquiétante lorsque GenAI se met à halluciner de manière nuisible, cautionnant la torture, renforçant des stéréotypes ethniques et raciaux ou encore en persuadant sur les théories du complot. Mais sont-ils vraiment efficaces ?

Des entreprises comme Nvidia et Salesforce, ainsi que certaines start-ups, proposent des solutions pour soi-disant atténuer le contenu toxique généré par GenAI. Des solutions de cette nature sont-elles suffisamment transparentes pour être fiables et comparables ?

Les solutions de régulation des contenus générés par l’IA sont-elles à la hauteur des promesses des entreprises ?

Shreya Rajpal a perçu le besoin urgent de réglementation et a fondé Guardrails AI dans ce but. Elle nous confie : « La plupart des organisations … se débattent avec les mêmes problèmes lors du déploiement responsable d’applications IA et peinent à déterminer la solution la plus adaptée et efficace ». Comment Guardrails AI se distingue-t-elle dans ce paysage compétitif ?

Les sondages récents montrent que la complexité et le risque que cela implique sont des obstacles majeurs empêchant les organisations d’embrasser pleinement GenAI. Mais Guardrails AI semble avoir trouvé un créneau : le Crowdsourcing. Serait-ce la clé de la gestion des risques liés à l’IA générative ?

Guardrails AI propose, à travers sa plateforme, d’encapsuler les modèles GenAI existants, qu’ils soient open source ou propriétaires comme GPT-4 d’OpenAI, dans le but de les rendre plus sûrs et fiables. Mais au-delà de ce service, l’entreprise veut aussi impliquer la communauté des développeurs avec son Hub. Encouragera-t-elle suffisamment les contributions extérieures pour atteindre une solution réellement partagée et approuvée par la communauté ?

La concurrence est rude et la route vers une IA générative « sûre » est encore longue. Malgré cela, Shreya Rajpal reste optimiste, arguant que la reconnaissance au sein de l’industrie sera une incitation suffisante pour les développeurs. Mais ne devrait-on pas envisager une forme de compensation supplémentaire pour les motiver davantage à partager leurs innovations ?

En fin de compte, Guardrails AI n’en est qu’à ses débuts et envisage d’utiliser les 7,5 millions de dollars obtenus lors de sa dernière levée de fonds pour se développer. Mais les défis sont nombreux, et la réussite de cette entreprise dépendra de multiples facteurs, y compris l’engagement des développeurs envers une IA plus sûre. Ces investissements et ces initiatives réussiront-ils à lever les freins au déploiement de solutions GenAI robustes et éthiques ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.