À l’occasion de l’édition 2024 du Google Cloud Next, le 9 avril, Google a présenté son premier processeur qui sera exploité pour le fonctionnement de ses centres de données. Baptisé Axion, ce nouveau composant s’inscrit dans la volonté de la firme de Mountain View de ne plus dépendre des produits d’AMD, Intel ou encore du leader du secteur, Nvidia.

Google accélère sur les processeurs et rattrape son retard en la matière

Depuis près d’une décennie, Google travaille sur ses unités de traitement tensoriel (TPU), l’une des rares alternatives viables aux accélérateurs d’intelligence artificielle (IA) proposés par Nvidia. Toutefois, le groupe accusait un retard en matière d’unités de traitement central (CPU), aussi appelées processeurs, obligeant l’entreprise à faire appel à des fournisseurs pour s’en procurer. Ce composant, généralement assimilé au cerveau d’un ordinateur ou d’un centre de données, est nécessaire pour l’exécution des instructions et le traitement de grandes quantités de données.

Ces derniers mois, le géant américain de la tech a décidé de passer à la vitesse supérieure, souhaitant ne plus dépendre de quiconque pour se fournir en CPU. Une stratégie également adoptée par Alibaba et Amazon ces dernières années ou plus récemment par Microsoft. Google a travaillé ces derniers mois sur la création d’Axion, une puce Arm sur mesure qui viendra alimenter ses services de cloud computing. En interne, Axion est déjà exploité pour faire fonctionner YouTube Ads, Google Earth ou encore son moteur de recherche dopé à l’IA générative avec Gemini.

Dans un communiqué, Google assure que son composant est « 30% plus performant que les puces Arm multi-usages ». Pour le géant technologique, son CPU présenterait « 50% de performance en plus et une efficacité 60 % supérieure » à ceux des processeurs basés sur l’architecture x86 comme proposés par Intel et AMD. À noter qu’aucune documentation ne vient étayer ces affirmations. Toutefois, il est admis que les processeurs basés sur Arm constituent souvent une option moins coûteuse et plus économe en énergie que ceux s’appuyant sur d’autres architectures.

« Axion est construit sur des fondations ouvertes, mais les clients qui utilisent Arm n’importe où peuvent facilement adopter Axion sans réarchitecturer ni réécrire leurs applications », insiste Mark Lohmeyer, vice-président et directeur général de l’infrastructure de calcul et d’apprentissage automatique de Google Cloud. « Nous permettons aux clients de transférer facilement leurs charges de travail existantes vers Arm », ajoute Mark Lohmeyer, ne laissant aucun des utilisateurs de ses services sur la touche.

Parallèlement à cette annonce, Google a présenté une nouvelle version de ses accélérateurs d’IA de cinquième génération. « TPU v5p est un accélérateur de nouvelle génération spécialement conçu pour former certains des modèles d’IA générative les plus importants et les plus exigeants », explique Mark Lohmeyer.