À l’occasion du Microsoft Ignite se déroulant du 14 au 17 novembre 2023, la firme de Redmond a dévoilé sa première puce d’intelligence artificielle (IA) et son premier processeur de cloud computing. Ces composants électroniques ont été conçus dans le but d’améliorer les offres proposées par Microsoft sur le marché de l’IA, et de réduire sa dépendance auprès de ses fournisseurs.
Maia et Cobalt pour doper les data centers de Microsoft
Comme le précise le géant de la tech dans un communiqué, Microsoft Azure Maia 100 est « une puce d’accélération d’IA conçue pour exécuter des entraînements et des inférences basés sur le cloud pour des tâches d’IA ». Ce composant sera utilisé pour former des modèles d’IA en tout genre comme des grands modèles de langage, constituant la partie la plus gourmande en calcul au vu de la grande quantité de données exploitées, et pour assurer par la suite leur fonctionnement.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Grâce à cette puce, Microsoft proposera aussi ses services d’IA habituels : le moteur de recherche Bing dopé à l’aide de ChatGPT, GitHub Copilot, ou tout autre modèle proposé par OpenAI, son partenaire privilégié. « L’architecture d’IA de bout en bout d’Azure, désormais optimisée jusqu’au silicium avec Maia, ouvre la voie à la formation de modèles plus performants et rend ces modèles moins chers pour nos clients », a déclaré Sam Altman, le dirigeant d’OpenAI dans un billet de blog.
En parallèle, Microsoft a également présent la puce cloud-native Microsoft Azure Cobalt 100, basée sur l’architecture Arm. Elle permettra de gérer les charges de travail sur Microsoft Azure. « Cobalt a été conçu dans un souci d’efficacité énergétique », précise Wes McCullough, vice-président du développement de produits matériels chez Microsoft, également soucieux de la réduction des coûts des tâches courantes sur le cloud de l’entreprise. Que ce soit pour Cobalt ou pour Maia, Microsoft n’a pas partagé de données de performances autour de ses nouveaux composants.
À l’heure actuelle, plus de 90 % du marché des puces d’accélération d’IA est détenu par Nvidia. Dernièrement, l’entreprise dirigée par Jensen Huang a dévoilé sa nouvelle génération de puces IA dédiés aux supercalculateurs, le H200. Microsoft vendra à ses clients, des services basés sur ce composant de pointe. Le géant de la tech se servira également du processeur MI300X d’AMD qui vise à concurrencer le H200 de Nvidia.
En adoptant cette approche, Microsoft laisse la possibilité à ses clients d’opter pour les infrastructures qui les intéressent en fonction des performances attendues ou de leur budget. Mira 100 et Cobalt 100 seront déployés dès l’année prochaine. Et le groupe envisage déjà l’avenir : selon les informations de VentureBeat, il serait déjà en train de travailler sur la deuxième génération de ses composants.