Cherchant à connaître les performances des GPU les plus avancés du marché, Stability AI a décidé de confronter trois d’entre elles : les Gaudi 2 d’Intel ainsi que les A100 et H100 de Nvidia. Pour la start-up britannique, le résultat est sans appel, Intel a plus que rattrapé son retard sur son concurrent en proposant un GPU plus performant.

Intel tire son épingle du jeu niveau performances, malgré la forte concurrence de Nvidia

Pour comparer les trois accélérateurs d’intelligence artificielle (IA), Stability AI s’en est servi pour entraîner deux de ses modèles. Le premier d’entre eux est Stable Diffusion 3, la dernière gamme de modèles de génération d’images de la start-up. Dévoilée fin février et actuellement disponible en accès restreint, la jeune entreprise a tout d’abord décidé de mener ses tests avec une version comprenant 2 milliards de paramètres.

En exploitant 16 accélérateurs Gaudi 2, la société a pu traiter 927 images par seconde, proposant une vitesse de traitement 65 % plus rapide que 16 H100-80GB. Ensuite, Stability AI est passé à la vitesse supérieure en exploitant 256 GPU. Dans ce cas de figure, les puces d’Intel ont été plus performantes pour former la version à deux milliards de paramètres de Stable Diffusion 3, traitant 12 654 images par seconde, contre 3 992 pour les A100 de Nvidia. À noter que le test n’a pas été réalisé pour les puces H100.

La start-up est allée plus loin en testant les puces lors de la phase d’inférence, étape cruciale pour finaliser la formation d’un grand modèle de langage et le rendre performant. Dans ce cas, c’est sur le modèle à huit milliards de paramètres, le plus avancé de l’entreprise, que les tests ont été effectués. Les puces Gaudi 2 ont proposé une vitesse d’inférence similaire à celles des A100, mais ont remarqué que ces dernières produisaient des images plus rapidement si elles étaient optimisées avec TensorRT, le kit de développement logiciel dédiée au deep learning développé par Nvidia.

Enfin, Stability AI a testé l’Intel Gaudi 2 et le Nvidia A100 sur Stable Beluga 2.5, un modèle de 70 milliards de paramètres s’appuyant sur le LLM open source proposé par Meta, LLaMA 2. Là aussi, 256 accélérateurs d’AI Gaudi 2 ont été utilisés pour former le modèle. La start-up a mesuré un débit moyen total de 116 777 résultats par seconde, un résultat qu’elle juge impressionnant. Pour ce qui est du test d’inférence, Gaudi 2 surpasse une nouvelle fois A100, générant 673 résultats par seconde, contre 525 pour le GPU de Nvidia.

Si Intel semble avoir rattrapé son retard sur les versions actuelles des puces du leader du secteur, elle devrait poursuivre ses efforts en déployant Gaudi 3 dans les prochains mois, venant concurrencer le H100. Toutefois, la concurrence sera rude puisque d’ici la fin du semestre, Nvidia va officiellement lancer son H200, et potentiellement reprendre de l’avance sur Intel.