Quel est le secret des modèles d’intelligence artificielle (IA) toujours plus rapides et efficaces ? La startup européenne Pruna AI semblerait avoir une partie de la réponse. En effet, cette société, spécialisée dans les algorithmes de compression pour modèles IA, a récemment rendu public son cadre d’optimisation en le proposant en open source. Pourquoi cette décision et quelles pourraient être ses répercussions ?
Pruna AI a élaboré un cadre intégrant plusieurs méthodes d’efficacité, telles que la mise en cache, l’élagage, la quantification et la distillation, pour un modèle d’IA donné. Est-ce la clé pour standardiser et éventuellement révolutionner la façon dont nous sauvegardons, chargeons et évaluons les modèles compressés ? Le cofondateur et directeur technique, John Rachwan, compare leur avancée au travail de standardisation réalisé par Hugging Face pour les transformateurs et diffuseurs. Mais est-ce suffisant pour faire de Pruna AI un leader dans le domaine ?
Les grandes entreprises travaillant sur l’IA utilisent déjà diverses méthodes de compression. Par exemple, OpenAI a été exemplaire avec l’utilisation de la distillation pour créer des versions plus rapides de ses modèles. La méthode de distillation, souvent décrite comme une relation « enseignant/étudiant » entre modèles, semble donner des résultats probants. Néanmoins, quelles sont les limites de ces techniques et comment s’assurer qu’il n’y a pas de perte significative de qualité après compression ?
L’innovation de Pruna AI pourrait-elle transformer l’économie des modèles IA en open source ?
Alors que Pruna AI soutient divers types de modèles, leur attention semble se portera particulièrement sur les modèles de génération d’images et de vidéos. Des clients comme Scenario et PhotoRoom ont déjà adopté leur solution. Cela ouvre-t-il la voie à une démocratisation de technologies auparavant l’apanage des grandes entreprises ? Leur agent de compression, prêt à être dévoilé, promet une personnalisation accrue des performances pour des utilisateurs exigeants.
Avec une tarification basée à l’heure, Pruna AI s’aligne sur un modèle économique similaire à la location de GPU sur des services cloud comme AWS. Pour les entreprises où un modèle optimisé est crucial pour l’infrastructure IA, cela se traduirait par des économies significatives. Mais la question subsiste : ce modèle économique open source est-il vraiment viable à long terme ?
Enfin, avec un tour de table de 6,5 millions de dollars récemment levé, Pruna AI bénéficie du soutien d’investisseurs tels qu’EQT Ventures et Daphni. Cette levée de fonds pourra-t-elle propulser Pruna AI vers de nouveaux sommets dans le domaine compétitif de l’optimisation IA ?
Source : Techcrunch