Nvidia dope le HPC avec Ampere et Mellanox

le 27/11/2020, par Andy Patrizio, NetworkWorld (adapté par Serge Leblal), Infrastructure, 919 mots

Lors de la dernière conférence consacrée au HPC, Nvidia a tiré la couverture grâce à sa contribution décisive pour la conception de supercalculateurs parmi les plus rapides au monde ; Intel et AMD ont quant à eux parler de leurs futurs produits.

Nvidia dope le HPC avec Ampere et Mellanox

Près de 70% des 500 supercalculateurs parmi les plus rapides au monde, comme annoncé lors de la conférence Supercomputing 20 la semaine dernière (du 16 au 19 novembre 2020), sont animés par des composants Nvidia, dont huit des dix premiers. Parmi eux, un modèle baptisé Selene et construit par Nvidia est entré directement à la cinquième place du classement semestriel du TOP500 des machines les plus rapides. Les serveurs très haut de gamme, nécessitant 10 000 processeurs et GPU ou plus, sont extrêmement coûteux, de sorte que les gouvernements ou les instituts de recherche en possèdent la majorité, même si des entreprises comme Total en ont également. Ces dernières préfèrent toutefois rester discrètes pour des raisons de concurrence. Cela rend Selene d'autant plus rare. Il a été assemblé et installé au siège social de Nvidia à Santa Clara, en Californie.

Le grand show de Nvidia

Il est également significatif qu'un autre supercalculateur Nvidia, le DGX SuperPOD, ait pris la première place du GREEN500, qui mesure l'efficacité énergétique des systèmes du TOP500. Quatre des cinq premiers systèmes étaient équipés du GPU A100 Ampère de Nvidia. Le prototype Fugaku de Fujitsu, avec seulement des processeurs ARM et sans DRAM (mémoire vive exploitant une interface à large bande passante HBM2), est tombé de la première à la sixième place. C'est énorme, car les GPU n'ont jamais été connus pour leur efficacité énergétique, mais Nvidia a maintenant une nouvelle histoire à raconter : performance et efficacité énergétique dans un seul produit.

Les pods Nvidia DGX reposent sur des processeurs AMD Epyc, épaulés par des accélérateurs GPU Ampere. (Crédit Nvidia)

Le fournisseur a également introduit sa famille de produits réseau Mellanox NDR 400Gbps InfiniBand, qui sera disponible au deuxième trimestre 2021. Cette gamme comprend des adaptateurs, des unités de traitement de données (DPU), ce que Nvidia appelle des NIC (carte réseau avec un OS Linux embarqué), des commutateurs et des câbles. Il ne s'agit pas seulement ici de doubler la largeur de bande par port. Mellanox triple le nombre de ports dans un seul appareil, ce qui, en théorie, permettra à une plate-forme de commutation de connecter l'ensemble du centre de données. Mellanox explique que les clients du NDR 400 Gbps InfiniBand pourront constater des économies substantielles : jusqu'à 1,4x moins pour le réseau grâce à la consolidation des équipements et jusqu'à 1,6x moins pour la consommation énergétique du datacenter (moins de switchs donc moins de consommation électrique et moins de refroidissement).

AMD revient dans la course

Bonne et mauvaise nouvelle pour AMD. Le nombre de supercalculateurs qui utilisent ses processeurs a presque doublé, passant de 11 sur la liste du TOP500 de juin à 21 sur la nouvelle. Cette croissance est due à l'arrivée de systèmes équipés de processeurs EPYC de deuxième génération, avec 64 coeurs par socket. Le revers de la médaille, c'est la lutte très difficile contre Nvidia du côté des accélérateurs GPU. Un seul des 500 premiers supercalculateurs exploite les GPU AMD Radeon. Même le Xeon Phi d'Intel, qui n'est plus commercialisé, fait meilleure figure avec trois systèmes sur la liste.

Mais AMD n'abandonne pas la partie. Lundi, il a dévoilé son accélérateur GPU pour serveur Instinct MI100, qu'il qualifie d'« accélérateur HPC le plus rapide du monde pour la recherche scientifique », avec des performances de plus de plus de 10 TFLOP en virgule flottante double précision. AMD affirme qu'il améliore les performances en virgule flottante de demi-précision pour les charges de travail IA de près de sept fois par rapport à sa précédente génération d'accélérateurs. Le MI100 est doté d'une technologie appelée Matrix Core, qui fait partie de l'architecture CDNA d'AMD conçue pour les charges de travail HPC et de l'apprentissage machine. Les futures itérations de l'architecture seront utilisées pour sa prochaine génération de GPU Instinct.

Derniers efforts d'Intel sur les GPU

Enfin, Intel espère que la troisième fois sera la bonne pour ses accélérateurs GPU. Pour avancer plus vite, le fondeur a engagé Raja Koudri, le concepteur du GPU Radeon d'AMD, comme architecte en chef. Cette fois-ci, la firme n'aura plus d'excuse en cas d'échec technique. Le dernier GPU se nomme Xe, ce qui prouve une fois de plus qu'Intel possède le pire département marketing produits de la Silicon Valley. La plus grande nouvelle concernant le Xe a été l'introduction de oneAPI Gold, la première version de la plate-forme de programmation d'Intel pour la gamme de GPU Xe. OneAPI Gold s'inscrit dans la stratégie de traitement hétérogène XPU d'Intel. Les serveurs sont bien plus que de simples puces x86. Ils accueillent des GPU, des FPGA, des accélérateurs IA et des processeurs réseau, et Intel a des produits dans toutes ces catégories. OneAPI vient tous les faire travailler de concert, afin de permettre aux développeurs d'écrire un code optimisé capable d'exploiter de manière optimale tous ces composants. Le fondeur assure la promotion d'oneAPI en le présentant comme un standard ouvert, mais il a été conçu pour l'architecture d'Intel. AMD et Nvidia n'ont rien annoncé publiquement, mais ils ne semblent pas décidés à l'adopter de sitôt. Pour tous ceux qui s'intéressent à l'avenir Intel, l'effet accélérateur d'oneAPI pourrait cependant ressembler à celui de CUDA pour Nvidia. Les processeurs Xe sont toujours en cours de développement, et la version haut de gamme, dont le nom de code est Ponte Vecchio, devrait être prête l'année prochaine. La version finale de OneAPI Gold devrait être livrée le mois prochain.

Kneron vise l'ermbarqué avec sa puce KL730 taillée pour l'IA

Axée sur l'image, la puce d'intelligence artificielle KL730 de Kneron devrait permettre de nombreuses améliorations dans les domaines de l'edge computing, de la sécurité et de l'automobile. Dénommée KL730,...

le 22/08/2023, par Jon Gold / Network World (adaptation Jean Elyan), 533 mots

Volumez repense le stockage cloud en misant sur la performance...

Fondé par des vétérans dans l'industrie du stockage, Volumez promeut un logiciel d'orchestration du stockage qui exploite des ressources Linux pour exécuter des charges de travail exigeantes en utilisant une...

le 23/06/2023, par Serge LEBLAL, 939 mots

Des serveurs Lenovo edge pour l'IA et le traitement des données

Les serveurs Lenovo ThinkEdge offriront une plus grande capacité de traitement là où les données sont générées et permettront aux entreprises d'effectuer de l'inférence en temps réel à la périphérie. Au cours...

le 20/06/2023, par Andy Patrizio, IDG NS (adapté par Jean Elyan), 565 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Céline Polo

DRH du groupe iliad

"Nous recrutons dans des métiers en tension, en particulier sur l'infrastructure réseau, pour lesquels il y a...