À l’occasion d’une conférence TED s’étant déroulée le 15 avril à Vancouver, Demis Hassabis, PDG de DeepMind, s’est exprimé autour de la stratégie d’investissement de la maison mère de son entreprise, Google. Selon lui, la firme de Mountain View serait prête à dépenser plus de 100 milliards de dollars dans les prochaines années afin de développer une technologie d’intelligence artificielle de haute volée.

Le rôle prépondérant de la puissance de calcul pour le développement de l’IA

Durant la conférence, Demis Hassabis a été interrogé autour du projet de data center nouvelle génération entrepris par Microsoft et OpenAI, et du montant alloué par les deux partenaires afin qu’il voie le jour. Selon les premières estimations, la création de ce site pourrait coûter entre 100 et 115 milliards de dollars, une somme 100 fois plus importante que la plupart des centres de données déjà existants.

Concernant les investissements prochainement consentis par Google, le dirigeant de la filiale IA du groupe a indiqué qu’il n’avait pas de chiffres précis en tête. Toutefois, il a déclaré que l’entreprise investirait « bien plus que cette somme au fil du temps », laissant envisager des dépenses supérieures à 100 milliards de dollars pour améliorer sa puissance de calcul.

Avec l’avènement de l’IA générative fin 2022, de nombreuses entreprises se sont lancées dans une course effrénée, à celui qui développerait les meilleurs modèles et outils d’IA. Pour y parvenir, toutes ces sociétés savent qu’elles doivent disposer d’une immense puissance de calcul, permettant de former et faire fonctionner ces solutions avancées. Cela passe par la construction de data centers et supercalculateurs avancés et l’utilisation d’accélérateurs d’IA dernière génération, sans compter l’électricité nécessaire pour faire tourner ces installations.

Selon Demis Hassabis, Alphabet, la maison mère de Google, disposerait actuellement d’une puissance de calcul supérieure à celle de ses concurrents, dont Microsoft. « C’est d’ailleurs l’une des raisons pour lesquelles nous avons fait équipe avec Google en 2014. À l’époque, nous savions que pour accéder à l’intelligence artificielle générative ou à une technologie similaire, nous aurions besoin d’une énorme puissance de calcul », a précisé le fondateur de DeepMind.

Néanmoins, la firme de Mountain View ne semblerait pas se reposer sur ses lauriers. Elle cherche toujours à réduire sa dépendance de Nvidia qui propose à l’heure actuelle, les meilleurs composants pour le développement et le fonctionnement d’IA. L’entreprise travaille depuis plus d’une décennie sur ses unités de traitement tensoriel, véritable alternative aux accélérateurs de Nvidia, et plus récemment sur des unités de traitement central (CPU), le cœur névralgique des superordinateurs. Le groupe a présenté son tout premier CPU à l’occasion du Google Cloud Next 2024, le 9 avril.