a body of water surrounded by mountains and trees

Credits image : Mandy Dolan / Unsplash

Intelligence ArtificielleSociétéTechnologie
0

La collaboration ouverte transformera-t-elle l’avenir de l’IA d’entreprise ?

Est-ce que l’intelligence artificielle générative conçue pour les entreprises peut réellement être interopérable ? Avec la collaboration d’organisations comme Cloudera et Intel, la Linux Foundation – une organisation à but non lucratif qui soutient de nombreux projets open source – cherche à répondre à cette question.

La Linux Foundation a annoncé mardi le lancement de la Open Platform for Enterprise AI (OPEA), un projet visant à favoriser le développement de systèmes d’IA générative ouverts, multi-fournisseurs et composables. Sous l’égide de l’organisation LFAI et Data de la Linux Foundation, qui se concentre sur les initiatives de plateforme liées à l’IA et aux données, l’objectif d’OPEA sera de préparer la voie pour la sortie de systèmes d’IA générative « durcis » et « évolutifs » qui « capitalisent sur la meilleure innovation open source de tout l’écosystème, » a déclaré Ibrahim Haddad, directeur exécutif de LFAI et Data.

« OPEA va débloquer de nouvelles possibilités dans l’IA en créant un cadre détaillé et composable qui se positionne à l’avant-garde des piles technologiques, » a ajouté Haddad. « Cette initiative témoigne de notre mission de stimuler l’innovation et la collaboration open source au sein des communautés AI et données sous un modèle de gouvernance neutre et ouvert. »

Ce projet révolutionnaire peut-il réellement transformer l’avenir de l’IA d’entreprise grâce à l’interopérabilité ?

Outre Cloudera et Intel, OPEA – l’un des projets Sandbox de la Linux Foundation, une sorte de programme d’incubateur – compte parmi ses membres de grands acteurs de l’entreprise tels qu’Intel, Red Hat (propriété d’IBM), Hugging Face, Domino Data Lab, MariaDB et VMware.

Que pourraient-ils construire ensemble exactement ? Haddad évoque quelques possibilités, comme un « support optimisé » pour les chaînes d’outils et les compilateurs IA, qui permettent aux charges de travail IA de s’exécuter sur différents composants matériels, ainsi que des pipelines « hétérogènes » pour la génération augmentée par récupération (RAG).

RAG gagne en popularité dans les applications d’IA générative en entreprise, et ce n’est pas difficile de comprendre pourquoi. La plupart des réponses et actions des modèles d’IA générative sont limitées aux données sur lesquelles ils sont entraînés. Mais avec RAG, la base de connaissances d’un modèle peut être étendue à des informations extérieures aux données d’origine. Les modèles RAG référencent ces informations externes – qui peuvent prendre la forme de données propriétaires d’entreprise, d’une base de données publique ou d’une combinaison des deux – avant de générer une réponse ou d’effectuer une tâche.

Les membres d’OPEA sont clairement investis (et intéressés, d’ailleurs) dans la construction d’outils pour l’IA générative d’entreprise. Mais les fournisseurs vont-ils vraiment travailler ensemble pour construire des outils IA intercompatibles sous OPEA ?

Il y a bien sûr un avantage à le faire. Les clients piocheront volontiers chez plusieurs fournisseurs selon leurs besoins, ressources et budgets. Mais l’histoire a montré qu’il est trop facile de tendre vers l’enfermement chez un fournisseur. Espérons que cela ne sera pas le résultat final ici.

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.