Intel vient de dévoiler les puces ASIC (pour Application-Specific Integrated Circuit) : la Nervana NNP-T1000 et la Nervana NNP-I1000. Ces deux puces ont été conçues exclusivement pour développer l’intelligence artificielle dans le cloud.

Des puces aux performances nettement supérieures

Si la NNP-I1000 est plutôt prévue pour gérer des tâches intensives, la NNP-T1000 sera plus équilibrée et utilisée dans des clusters (un groupement d’ordinateurs qui permet d’avoir plus de puissance de calcul disponible), ou au sein de supercalculateurs (ordinateur conçu pour atteindre les plus hautes performances possibles, en particulier en ce qui concerne la vitesse de calcul). Intel affirme que ses puces ASIC, permettront de développer des performances 10 fois supérieures aux calculs par inférence, tout en étant 6 fois plus économe en énergie que les produits de la concurrence.

Intel dévoile de nouvelles puces pour développer l'IA dans le cloud.

Crédit : Intel

Attention : dans le meilleur des cas, les puces ne devraient pas voir le jour avant le premier semestre de 2020. L’entreprise estime que les technologies pout l’edge computing en terme d’apprentissage automatique évolueront très rapidement dans les prochaines années. Elle affirme que grâce à ces 2 nouvelles puces, les performances de l’intelligence artificielle pourraient être doublées tous les 3 mois et demi. Pour Daveen Rao, directeur général d’Intel Artificial Intelligence Products Group :

« Nous entrons dans une nouvelle phase de l’intelligence artificielle et je pense que nous atteignons nos limites en termes de matériel informatique et de mémoire. Du matériel spécialement conçu à cet effet, comme les NNP Intel Nervana et les VPU Movidius, était nécessaire pour poursuivre l’incroyable progrès de l’intelligence artificielle. Cette technologie nous aidera à passer de la conversion des données en information à la transformation de l’information en connaissance ».

Un marché qui tend de plus en plus vers le B2B

Les tendances pour l’intelligence artificielle en 2020 vont dans cette direction. Nous nous dirigeons vers une automatisation intelligente des processus au sein des entreprises. NVIDIA aussi l’a bien compris. L’entreprise californienne cherche à surfer sur la vague de la 5G et l’edge computing. Objectif : développer des solutions d’IA pour le B2B. Par exemple, l’éditeur de distributions GNU/Linux Red Hat collaborera avec NVIDIA pour créer un cloud natif pensé pour les télécoms.

De son côté, Misha Smelyanskiy, directeur du laboratoire d’IA chez Facebook a déclaré que : « nous sommes ravis de travailler avec Intel pour déployer un calcul d’inférence plus rapide et plus efficace avec le processeur de réseau neuronal Intel Nervana ». L’entreprise est persuadée que la puce NNP-T devrait permettre le juste équilibre entre l’informatique, la communication et la mémoire.

Ces nouvelles puces ont justement été développées pour des entreprises qui développent des intelligences artificielles de pointe, comme Facebook ou Baidu par exemple. De plus en plus, nous observons que les fabricants traditionnels s’orientent vers le B2B plutôt que le B2C. Avec le développement massif des services cloud, notamment le cloud gaming, l’ordinateur personnel pourrait bien finir, à terme, par disparaître. Cela ne fait aucun doute : l’annonce de la sortie de telles puces est synonyme d’un bond en avant pour les performances de l’intelligence artificielle.