man in blue crew neck shirt wearing black vr goggles

Credits image : Maxim Tolchinskiy / Unsplash

HardwareIntelligence ArtificielleTechnologie
0

Chips et Aïe : Quand l’inférence fait bzzz…

« Quand la puce tombe, l’intuition s’éveille. » Ah, Nvidia, l’orfèvre des semi-conducteurs, a récemment empoché plus de 19 milliards de dollars en un trimestre – quoi ? Seulement ça ? – selon les derniers rapports de la compagnie. Cette pluie de milliards a pourtant laissé les investisseurs en plein doute quant à la continuité de cette croissance fulgurante. Les analystes, eux, ont sauté sur l’occasion en bombardant le PDG Jensen Huang de questions : comment Nvidia se préparait-elle pour l’éventualité où les géants tech redéfiniraient leurs approches des modèles IA ?

Parmi les sujets à la mode, se trouvait inévitablement le « test-time scaling » d’OpenAI, ou o1 pour les intimes. Imaginez des modèles IA qui, en bon vin, s’améliorent avec le temps et la puissance de calcul supplémentaires lorsqu’ils doivent répondre à des questions – une sorte de brainstorming technologique. Ce paradigme suscite l’intérêt, notamment pour toutes les actions qui suivent le fameux clic sur la touche entrée après un prompt. En somme, une phase d’inférence optimisée.

Face à ces interrogations, Jensen a d’abord sorti le manuel du bon communiquant, s’assurant d’expliquer que le fameux o1 pourrait devenir une pièce maîtresse pour l’avenir de Nvidia. Huang n’a pas caché son enthousiasme, présentant cette méthode comme « l’un des développements les plus excitants », et un potentiel « nouveau principe de mise à l’échelle ». Message : Nvidia est prête à virer dans cette nouvelle direction comme un surfeur sur une énorme vague de silicium.

En matière d’IA, même si le test-time scaling vole la vedette, Nvidia garde un œil vigilant sur l’avenir.

Rebondissant sur la même note d’optimisme, Satya Nadella, PDG de Microsoft, a aussi suggéré que o1 pourrait redéfinir les règles du jeu des modèles IA. Cela pourrait affecter de manière significative l’industrie des puces, en particulier en ce qui concerne l’inférence IA. Alors que les puces Nvidia règnent sur le marché de l’entraînement des modèles, de jeunes pousses comme Groq et Cerebras pointent leur nez de la vidange électronique, prêtes à offrir des circuits aussi rapides que l’éclair pour l’inférence IA.

Malgré certains rapports indiquant que l’amélioration des modèles génératifs ralentit, Jensen Huang joue la carte de l’encouragement : les développeurs de modèles ajoutent toujours plus de calcul et de données durant la phase de pré-entraînement. Pas de pause dans le développement des modèles, affirme-t-il, la loi de l’IA stipule que « ça scale encore » – une formule empirique qui promet de continuer. Huang nourrit une vision où l’inférence IA prendra le monde d’assaut, avec Nvidia comme le maître d’orchestre de cette symphonie digitale.

Démarrons nos processeurs, chers lecteurs, car comme dit le proverbe : « rien ne sert de flâner quand on a des octets à gagner ! » Nvidia sait bien que l’architecture de ses puces CUDA leur permet d’innover rapidement et sûrement. Alors, à quand une IA qui surchauffe d’idées lumineuses grâce à Nvidia ? En attendant, restons à l’affût, car dans la tech, les apparences sont souvent aussi trompeuses que l’invincibilité des batteries de smartphone.

Au final, Nvidia sait jouer les cartes qu’elle a en main. Parce qu’après tout, en matière de processeurs, tout est une question de bon sens, et de « chips ».

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.