black and blue audio mixer

Credits image : Siednji Leon / Unsplash

HardwareIntelligence ArtificielleSmartphonesTechnologie
0

Quand Nvidia fait « Run » les IA : une partie bien jouée !

« Dans le monde du tech, une acquisition n’est jamais une simple transaction, c’est plus un mariage de raison où les dowries sont remplacés par des serveurs et des lignes de code ». Nvidia met la main sur Run:ai, une entreprise basée à Tel-Aviv qui simplifie la vie des développeurs et des équipes opérationnelles en gérant et optimisant l’infrastructure matérielle IA, pour une somme non divulguée. Cependant, les langues se délient et une source bien informée mentionne un chiffre aux alentours de 700 millions de dollars.

Ce matin, Ctech a soufflé le chaud et le froid en déclarant que les deux compagnies étaient en « négociations avancées », avec des rumeurs d’un chèque qui pourrait atteindre le milliard de dollars. Bien que la danse des millions ai été intense, tout semble indiquer que l’accord s’est conclu sans accroc majeur, si ce n’est peut-être une petite réduction de prix.

Nvidia chante haut et fort son ambition de poursuivre la vente des produits Run:ai « sous le même modèle économique » tout en investissant dans la feuille de route des produits de Run:ai dans le cadre de sa plateforme Nvidia DGX Cloud AI. Cette dernière offre aux clients d’entreprise un accès à une infrastructure de calcul et à des logiciels pour entraîner des modèles pour l’IA générative et autres types d’IA, avec un petit bonus : l’accès aux capacités de Run:ai pour leurs charges de travail IA, surtout pour les déploiements IA génératifs s’étalant sur plusieurs localisations de data centers.

Nvidia et Run:ai, une collaboration qui promet de rendre l’infrastructure IA encore plus agile et accessible.

« Run:ai a été un collaborateur proche avec Nvidia depuis 2020 et nous partageons une passion pour aider nos clients à maximiser leur infrastructure, » a déclaré Omri Geller, PDG de Run:ai. L’histoire d’amitié entre Geller et son co-fondateur Ronen Dar, qui ont étudié ensemble à l’Université de Tel-Aviv sous l’aile du professeur Meir Feder, troisième co-fondateur, montre que parfois, les plus grandes idées naissent sur les bancs de l’université. »

Run:ai, malgré peu de concurrents directs, s’est rapidement fait un nom en proposant une plateforme capable de « fragmenter » des modèles IA pour les exécuter en parallèle sur du matériel informatique diversifié, du local au cloud public et jusqu’à la périphérie.

Ce petit prodige technologique n’a pas tardé à séduire un large panel de clients parmi les Fortune 500, attirant ainsi des investissements de capital-risqueurs, avec à son actif 118 millions de dollars levés avant l’acquisition par Nvidia.

Alexis Bjorlin, vice-présidente de Nvidia DGX Cloud, soulève un point intéressant dans un billet de blog : les déploiements clients en IA deviennent de plus en plus complexes et l’envie de rendre l’utilisation des ressources de calcul IA plus efficace ne cesse de croître. En effet, une récente enquête révèle que le principal défi dans le déploiement de l’IA en 2024 a été les limitations de calcul en termes de disponibilité et de coût, suivies par les problèmes d’infrastructure.

En résumé, entre Nvidia et Run:ai, le futur promet des infrastructures IA plus flexibles et performantes. Visiblement, l’IA chez Nvidia, ce n’est plus seulement une affaire de cartes graphiques haut de gamme, c’est aussi savoir jouer ses cartes dans le grand casino des acquisitions tech. Comme quoi, dans le négoce tech, il vaut mieux être un bon joueur pour ne pas finir à la case départ.

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.