Afin d’éviter une dépendance coûteuse à l’égard de Nvidia, Microsoft développe ses propres GPU, des puces utilisées pour les applications d’intelligence artificielle (IA). Le nom de code du projet, débuté en 2019, est Athena.

Le monopole de Nvidia mène à des prix élevés

Nvidia détient 95 % du marché des processeurs graphiques pouvant être utilisés pour l’apprentissage automatique, branche de l’intelligence artificielle exploitée pour les modèles de langage étendus (technologie qui alimente ChatGPT ou Bard de Google) et l’IA générative en général.

Si Nvidia tente de répondre à la hausse exponentielle de la demande résultant de la course à l’IA, le secteur est en proie à une pénurie. Par conséquent, le prix de ces puces connaît une hausse astronomique ; à titre d’exemple, les derniers GPU H100 de Nvidia se vendent à plus de 40 000 dollars sur eBay. Selon des estimations, OpenAI aurait besoin de plus de 30 000 GPU A100 de Nvidia pour la commercialisation de ChatGPT. Une unité seule est vendue à 10 000 dollars par l’entreprise.

L’intelligence artificielle coûte très cher et Microsoft, qui en a récemment fait la pierre angulaire de son activité, veut contourner cette contrainte. Selon The Information, la firme de Redmond travaille sur ses GPU maison sous le nom de code Athena, et aurait accéléré leur développement depuis quelque temps.

Des puces pour les équipes de Microsoft et d’OpenAI

Les puces, conçues pour l’apprentissage de logiciels, sont déjà à la disposition d’un petit groupe d’employés de Microsoft et d’OpenAI, qui testent la technologie. Pour l’heure, on ignore si Microsoft les proposera à ses clients Azure, mais elles devrait être rendues disponibles dès l’année prochaine au sein de ses équipes et de celles d’OpenAI, entreprise dans laquelle elle a investi 10 milliards de dollars. Plusieurs générations de ces GPU seraient déjà prévues, de quoi accompagner la société dans ses ambitions avec l’IA, qu’elle intègre progressivement à ses nombreux produits.

Face au monopole de Nvidia, plusieurs entreprises développent leurs propres puces en interne. Plus tôt cette semaine, Tencent annonçait par exemple qu’elle travaillait sur des puces de transcodage vidéo maison. Si de nombreuses sociétés continuent de s’appuyer sur la technologie de Nvidia pour les modèles de langage, les géants comme Amazon, Google et Meta disposent de leurs propres puces pour l’IA.

D’ailleurs, la firme de Mountain View vient de dévoiler un supercalculateur basé sur ses puces maison. Elle assure qu’à taille égale, il est 20 % à 70 % plus rapide que celui de Nvidia, et utilise 30 % à 90 % d’énergie en moins.