black fan device close-up photography

Credits image : Christian Wiediger / Unsplash

Intelligence ArtificielleTechnologie
0

Nvidia NIM : Quand l’IA Est Emballée, C’est Pesé!

« Il n’y a rien de tel qu’un bon modèle d’IA pour transformer du café et des pizzas en applications logicielles. » – Une personne extrêmement intelligente chez Nvidia, probablement. Nvidia a frappé un grand coup lors de sa conférence GTC, en dévoilant Nvidia NIM, une plateforme logicielle conçue pour fluidifier le déploiement de modèles d’IA personnalisés et pré-entraînés dans les environnements de production. Finis les casses-têtes pour optimiser et invoquer les modèles, Nvidia vous emballe ça dans un petit conteneur utilisable comme microservice. Sacré Nvidia, toujours à nous simplifier la vie!

Auparavant, le temps nécessaire pour livrer des containers similaires se comptait en semaines, voire en mois, argumente Nvidia – et seulement si vous aviez la chance d’avoir une équipe IA interne. Avec NIM, Nvidia vise clairement à bâtir un écosystème de containers prêts à l’IA qui reposent sur son matériel, suggérant ainsi une nouvelle couche logicielle fondamentale pour les entreprises désireuses d’accélérer sur l’autoroute de l’IA.

NIM est déjà copain avec des modèles issus de NVIDIA, A121, Adept, Cohere, Getty Images, et Shutterstock, sans oublier les modèles ouverts de Google, Hugging Face, Meta, Microsoft, Mistral AI et Stability AI. Et comme Nvidia ne fait jamais les choses à moitié, Amazon, Google et Microsoft sont déjà dans le coup pour intégrer ces microservices NIM sur SageMaker, Kubernetes Engine et Azure AI, respectivement. Ils s’intégreront également à des frameworks comme Deepset, LangChain, et LlamaIndex.

« Nvidia, c’est un peu le chef d’orchestre qui veut harmoniser le monde de l’IA. »

« Nous pensons que le GPU Nvidia est le meilleur endroit pour l’inférence de ces modèles […], et nous pensons que NVIDIA NIM est le meilleur logiciel, le meilleur environnement d’exécution, pour que les développeurs puissent construire dessus afin qu’ils puissent se concentrer sur les applications d’entreprise — et laisser Nvidia faire le gros du travail pour eux de la manière la plus efficiente et de grade entreprise, afin qu’ils puissent simplement faire le reste de leur travail, » a déclaré Manuvir Das, chef de l’informatique d’entreprise chez Nvidia, lors d’une conférence de presse précédant les annonces d’aujourd’hui.

En ce qui concerne le moteur d’inférence, Nvidia utilisera le Triton Inference Server, TensorRT et TensorRT-LLM. Parmi les microservices Nvidia disponibles via NIM, citons Riva pour la personnalisation des modèles de parole et de traduction, cuOpt pour les optimisations d’itinéraires et le modèle Earth-2 pour les simulations météorologiques et climatiques.

Nvidia prévoit d’intégrer d’autres fonctionnalités au fil du temps, par exemple en rendant l’opérateur Nvidia RAG LLM disponible en tant que NIM, ce qui promet de simplifier la construction de chatbots IA génératifs capables d’incorporer des données personnalisées.

Cette conférence n’aurait pas été complète sans quelques annonces de partenaires et clients. Parmi les utilisateurs actuels de NIM figurent des noms tels que Box, Cloudera, Cohesity, Datastax, Dropbox et NetApp.

« Les plateformes d’entreprise établies sont assises sur une mine d’or de données qui peuvent être transformées en copilotes IA génératifs, » a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « Créés avec notre écosystème de partenaires, ces microservices AI conteneurisés sont les briques fondamentales pour que les entreprises de tous les secteurs deviennent des entreprises IA. »

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.