Nvidia a présenté le 13 novembre son tout dernier GPU dédié à la formation et au fonctionnement des modèles d’intelligence artificielle de pointe. L’entreprise américaine spécialisée dans la conception de processeurs graphique souhaite conserver sa place de leader dans ce secteur, voyant que de nouveaux acteurs pourraient bien lui faire de la concurrence.
Nvidia veut à tout prix conserver sa place de leader des puces IA
Baptisée H200, ce nouveau composant électronique succédera à l’actuel H100 de Nvidia, lancé en septembre 2022. Ce GPU de nouvelle génération s’appuie sur la même architecture que celle de son prédécesseur. Toutefois, des différences subsistent, faisant de H200, une puce bien plus performante. Elle intègre, entre autres, une mémoire HBM3e, offrant 141 Go de mémoire à bande passante élevée, contre seulement 80 Go dans le H100 qui comprenait une mémoire HBM3.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Dans un communiqué, la société assure que cette nouvelle mémoire permettra « d’améliorer et d’accélérer de manière significative les applications de calcul haute performance et d’intelligence artificielle ». À la fin du premier semestre 2024, de nombreux data centers profiteront de ce nouveau composant. Amazon Web Services, Google Cloud, Microsoft Azure et Oracle se sont tous engagés à exploiter le H200 dans leurs infrastructures. OpenAI va également s’en servir pour entraîner son modèle de langage le plus avancé, GPT-4. Les H200 seront aussi utilisés pour alimenter le supercalculateur exaflopique européen Jupiter, installé à Jülich, en Allemagne.
Dans la course à l’intelligence artificielle générative, celle en lien avec les processeurs utiles pour la formation et le fonctionnement d’outils d’IA fait également rage. Les sociétés spécialisées dans cette technologie ont besoin de ce type de composants pour concevoir des modèles toujours plus performants. Nvidia l’a compris et a pris de l’avance sur le sujet, à tel point que ses composants font les beaux jours de la société qui a dépassé les 1 000 milliards de dollars de capitalisation boursière, devenant également une vraie machine à bénéfices.
Néanmoins, Nvidia a de quoi s’inquiéter car AMD a pour projet de la concurrencer. Elle a dernièrement développé un GPU, le MI300X, proposant de meilleures performances que les puces H100 de Nvidia. Souhaitant conserver une longueur d’avance, le groupe a mis au point cette puce de nouvelle génération, le H200. D’autres géants de la tech ont également envie de mettre un terme à leur dépendance à la firme de Jensen Huang. Microsoft s’est ainsi rapproché de AMD en mai dernier pour produire ses propres GPU, OpenAI envisage aussi de concevoir ses propres composants, tandis que Google propose d’ores et déjà ses puces, les fournissant notamment à la start-up Anthropic.