Anthropic va utiliser les puces d’intelligence artificielle (IA) de Google dans le cadre d’un vaste partenariat entre les deux sociétés. Une initiative qui témoigne de l’étroite collaboration entre les géants du cloud et les start-up à la pointe de l’IA.
Une approche « multi-cloud »
Le 27 octobre dernier, Anthropic, qui opère le modèle de langage étendu (LLM) Claude, confirmait un investissement massif de Google pouvant atteindre 2 milliards de dollars. La start-up utilise les services de Google Cloud depuis sa création en 2021. Dans le cadre de ce nouvel accord, elle exploitera davantage l’infrastructure et les fonctions de sécurité du service.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Elle va également déployer les puces Cloud TPU v5e de Google pour alimenter son LLM, ont annoncé les deux sociétés. Ce processeur est aussi utilisé par les start-up d’IA Hugging Face et AssemblyAI, ainsi que pour Bard, l’agent conversationnel de la firme de Mountain View. « Nous sommes très enthousiastes quant à l’efficacité des TPU. Elles commencent déjà à nous apporter des gains », assure Dario Amodei, directeur général d’Anthropic. Cette nouvelle annonce pourrait signifier que Google envisage plus sérieusement de commercialiser ses puces d’IA.
Elle intervient alors qu’Amazon, dont la branche cloud Amazon Web Services (AWS) concurrence Google Cloud, a également annoncé l’investissement d’une somme pouvant aller jusqu’à 4 milliards de dollars dans Anthropic. La start-up va ainsi utiliser les services cloud et les puces du géant de l’e-commerce, sur lesquels elle va exécuter la « majorité de ses charges de travail sur AWS », selon Amazon.
Pour sa part, Dario Amodei à tenu à préciser à Bloomberg que son entreprise adoptait une approche « multi-cloud », et n’offrirait donc pas d’exclusivité à un fournisseur. « Les grandes entreprises veulent toujours choisir plusieurs cloud, car cela leur permet d’utiliser le meilleur de chacun d’entre eux. Nous avons l’habitude d’être en concurrence et de collaborer avec d’autres fournisseurs cloud », a-t-il souligné.
Start-up et géants du cloud collaborent et rivalisent dans le secteur de l’IA
Alors que la course à l’élaboration des LLM s’intensifie, les géants de la technologie s’efforcent de cultiver des relations collaboratives avec les start-up qui les développent, bien qu’ils soient également en concurrence avec ces dernières. Par exemple, Claude 2 rivalise directement avec Google Bard.
Le partenariat entre OpenAI et Microsoft en est la parfaite illustration. La firme de Redmond a investi un total de 11 milliards de dollars dans l’éditeur de ChatGPT. Ce dernier exploite les services cloud de Microsoft, tandis que les LLM d’OpenAI sous-tendent les technologies d’IA du géant de la tech. Bien qu’elles soient en concurrence, les deux entreprises continuent de collaborer pour tirer parti de leurs capacités respectives.