Chaque géant de la tech veut désormais s’imposer comme le leader du marché de l’intelligence artificielle générative. Si à première vue Amazon semble être parti en retard, l’entreprise pourrait bien cacher son jeu. Le spécialiste de l’e-commerce développe, depuis plusieurs années, ses propres puces : Inferentia et Trainium. Elles doivent rivaliser avec les technologies de Nvidia, qui sont actuellement les plus utilisées pour entraîner les grands modèles de langages.

Amazon crée des puces IA depuis 2013

Depuis le lancement de ChatGPT d’OpenAI en novembre 2022, Microsoft, Google et Meta font souvent la une des médias pour leurs investissements dans l’intelligence artificielle (IA) générative. Redmond a rapidement attiré l’attention pour avoir hébergé l’agent conversationnel dans ses centres de données. L’entreprise a ensuite ajouté les IA d’OpenAI à ses propres produits, notamment dans Bing en février dernier. Google a instantanément réagi en lançant son propre grand modèle de langage Bard. Sa maison mère, Alphabet, a également investi 300 millions de dollars dans une entreprise spécialisée dans les IA : Anthropic. Meta a misé sur l’open source avec son modèle Llama 2.

De son côté, Amazon a été patient avant d’annoncer la moindre information sur ce domaine. En avril, l’entreprise a finalement révélé sa propre collection de modèles de langage nommée Titan. Elle a aussi dévoilé un service nommé Bedrock pour aider les développeurs à optimiser les logiciels avec l’IA générative. Mais en réalité, Amazon crée ses propres puces pour l’IA générative depuis plusieurs années.

Dans une interview avec CNBC, Andy Jassy, PDG d’Amazon, et anciennement directeur d’Amazon Web Services (AWS), la division cloud du géant, a révélé que l’entreprise a commencé à faire des puces spéciales en 2013 avec un matériel spécialisé appelé Nitro. En 2018, Amazon a créé ses premières puces dédiées entièrement à l’IA. Inferentia est sortie sur le marché en 2019, puis Trainium a suivi en 2021. De nouvelles générations sont en cours de développement.

« Le monde entier a besoin de plus de puces pour l’intelligence artificielle générative, que ce soient des GPU [NDLR : processeur graphique] ou que ce soient les propres puces d’Amazon que nous concevons », a affirmé Andy Jassy. Il a déclaré qu’Amazon est « mieux placé que quiconque sur Terre pour fournir la capacité » nécessaire à ses clients.

Une grande base de clients

Aujourd’hui, les entreprises créant les IA génératives s’orientent vers Nvidia pour entraîner leurs grands modèles de langage. Cette dynamique a fait exploser les prix des puces de l’entreprise. Une tendance qu’Amazon pourrait renverser. L’entreprise de Jeff Bezos peut s’appuyer sur sa base de plusieurs millions de clients existants. AWS domine le marché mondial de la dématérialisation avec une part de marché de 40 % en 2022, d’après le cabinet d’études Gartner.

Si un client hésite entre différentes solutions pour héberger et entraîner son grand modèle de langage, la confiance envers Amazon pourrait l’influencer. Andy Jassy a révélé que plus de 100 000 clients utilisent déjà l’apprentissage automatique comme Philips, 3M, Old Mutual ou encore HSBC.

Au-delà du développement des puces, Amazon se creuse les méninges pour développer un portefeuille de solutions. En juillet dernier, l’entreprise a lancé AWS HealthScribe, une IA rédigeant des rapports de visites de patients pour des médecins. Amazon a également SageMaker, un centre d’apprentissage automatique qui propose des algorithmes ou directement des modèles d’IA. Les clients du géant peuvent également utiliser CodeWhisperer, un IA créant du code. Il devrait continuer de croître dans les prochaines années avec l’investissement de 100 millions de dollars d’AWS, en juin dernier, dans un centre d’innovation en IA générative.