worm's eye-view photography of ceiling

Credits image : Joshua Sortino / Unsplash

HardwareIntelligence ArtificielleMetaverseSciencesSociétéTechnologie
0

Comment Microsoft Redéfinit-il les Standards Technologiques de Demain?

Microsoft, une fois de plus, redessine-t-il les lignes de la technologie avec ses nouveaux processeurs Cobalt 100? Annoncés pour une prévisualisation publique à la conférence Build la semaine prochaine, ces puces suscitent-elles une révolution ou une simple amélioration?

Scott Guthrie, vice-président exécutif du groupe Cloud et AI de Microsoft, a-t-il raison lorsqu’il compare les puces Cobalt aux Graviton d’AWS, disponibles depuis plusieurs années déjà? Avec une promesse de performance supérieure de 40% par rapport aux autres puces ARM du marché, cette nouveauté pourrait-elle bouleverser les habitudes des développeurs? Adobe et Snowflake, parmi d’autres, ont déjà franchi le pas. Alors, pourquoi ce choix?

Retour en novembre dernier, Microsoft annonce ses ambitions avec les puces Cobalt, des processeurs 64 bits basés sur l’architecture ARM et dotés de 128 cœurs. Cette annonce était-elle vraiment attendue? Quels étaient les enjeux pour Microsoft à ce moment précis?

Avec cette avancée, Microsoft vise-t-il à dominer le marché des semi-conducteurs?

En parallèle, Microsoft proposera les accélérateurs MI300X d’AMD à ses clients Azure la semaine prochaine. AMD, malgré son statut de grand fabricant de GPU, a-t-il réellement les moyens de rattraper Nvidia dans le domaine de l’IA? Les fournisseurs de cloud cherchent-ils véritablement à trouver des alternatives aux coûteux chips de Nvidia? Et qu’en est-il du soutien logiciel amélioré qu’offre désormais AMD?

Selon Guthrie, le MI300X serait le GPU le plus rentable actuellement pour Azure OpenAI. Mais à quel point cela est-il vraiment pertinent? Lors de la conférence Build, Microsoft prévoit également de baisser ses tarifs pour l’accès et le fonctionnement de grands modèles de langage. Cela annonce-t-il une guerre des prix dans le domaine de l’intelligence artificielle? Comment cette réduction de prix se matérialisera-t-elle?

Un autre aspect crucial de cette annonce est le nouveau « système d’intelligence en temps réel » de Microsoft qui permettra le streaming de données en temps réel dans Fabric. Avec une intégration native de Kafka et un support pour AWS Kinesis et Google Cloud Pub/Sub, Microsoft tente-t-il de centraliser le flux de données? Quelle sera l’ampleur de cette innovation pour les utilisateurs de systèmes d’analyse de données?

Enfin, une collaboration prometteuse avec Snowflake: Fabric prendra désormais en charge le format Iceberg de Snowflake, s’ajoutant au Parquet de Databrick. Cette interopérabilité transparente entre Snowflake et Fabric pourrait-elle devenir une norme dans le traitement des données? De plus, Microsoft envisage de développer une fonction Copilot améliorée, permettant aux développeurs de gérer directement leurs ressources Azure à travers un langage naturel. Cette innovation facilitera-t-elle réellement la vie des développeurs ou s’agit-il d’un simple argument marketing?

À la lumière de toutes ces annonces, une question demeure: Microsoft, avec Cobalt et ses autres projets, est-il sur le point de redéfinir les standards technologiques de demain?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.