Avec CXL sur ses Xeon Sapphire Rapids, Intel pousse les serveurs composables

le 30/06/2021, par Dominique Filippone, Infrastructure, 669 mots

La 4e génération de puces Xeon Scalable d'Intel, Sapphire Rapids, taillées pour les besoins en calcul haute performance, va bénéficier comme ses prédécesseurs Ice Lake d'une finesse de gravure en 10nm SuperFIN. Des capacités mémoire à large bande passante sont ajoutées et surtout le support du protocole CXL pour aller vers des serveurs composables.

Avec CXL sur ses Xeon Sapphire Rapids, Intel pousse les serveurs composables

Intel ne perd pas de temps. Dans le cadre de la conférence en ligne International Supercomputing 2021, le fondeur a fait état de plusieurs annonces produits majeures pour monter d'un cran les capacités de calcul et de traitement des systèmes de calcul haute performance (HPC). La plus importante est sans aucun doute l'annonce de la 4e génération de puces Xeon Scalable, Sapphire Rapids, qui viennent épauler les modèles Ice Lake lancés il y a moins de trois mois. Attendus au premier semestre 2022, elles doivent traiter plus rapidement les workloads en modélisation et simulation, intelligence artificielle, analytique, bases de données en mémoire... Deux gammes de processeurs Sapphire Rapids seront proposées, dont une dotée de capacités mémoire à large bande passante (high bandwith memory).

Les puces Sapphire Rapids tirent partie des technologies DDR5, PCIe 5.0 et surtout du CXL 1.1 (voir encadré) pour aller vers des serveurs composables et intègrent un moteur d'accélération des traitements en intelligence artificielle. Baptisé Advanced Matrix Extensions (AMX), ce dernier doit améliorer les capacités de traitements d'apprentissage profond et d'inférences. Intel compte proposer ses Xeon Scalable Sapphire Rapids HBM aussi bien à ses clients entreprises qu'aux fournisseurs de serveurs et de systèmes HPC. A noter que cette génération de processeurs qui va donc supporter la mémoire DDR5 pourra très bien fonctionner sur une configuration système équipé de barrettes DDR4.

GPU Ponte Vecchio

Intel a révélé que le GPU Ponte Vecchio sera disponible dans un facteur de forme OCP Accelerator Module (OAM) et un sous-système à quatre voies Intel pour répondre aux besoins des applications HPC. (crédit : Intel)

Un design processeur basé sur Golden Cove

Tout comme la 3e génération de processeurs Intel Xeon Scalable Ice Lake, Sapphire Rapids s'appuie sur une technologie de finesse de gravure 10nm SuperFIN. Rappelons qu'il s'agit de transistors FinFET améliorés dotés de condensateurs métalliques très isolants. La dernière génération de mémoire Optane d'Intel, Crow Pass, est par ailleurs également supportée. Comme évoqué depuis plusieurs mois, le design processeur (microarchitecture CPU) des Xeon Scalable Sapphire Rapids est basé sur Golden Cove afin d'améliorer en particulier l'efficience énergétique.

Intel n'a pas fourni à ce stade davantage de précisions sur les configurations et caractéristiques techniques de ses dernières puces Scalable, que ce soit en termes de capacité mémoire ou de bande passante. « Nous nous attendons à ce que la mémoire GPU par serveur atteigne jusqu'à 8 rangs de mémoire HBM2e de 16 Go chacune, avec 1 à 4 rangées bord à bord menant à 64 Go de HBM. À une vitesse maximale théorique de 460 GB/s par rangée, soit jusqu'à 1840 GB/s de bande passante, bien que nous puissions imaginer quelque chose de plus proche de 1 TB/s ce qui constituerait un accroissement considérable en termes de rendement et de performance », indique Anandtech.

Des puces Sapphire Rapids dans les supercalculateurs Aurora

Deux organismes ont déjà opté pour des supercalculateurs Aurora embarquant des systèmes dotés de processeur Sapphire Rapids, à savoir le Crossroads supercomputer du Los Alamos National Laboratory et l'Argonne National Laboratory. Ce dernier va coupler l'année prochaine deux processeurs Sapphire Rapids à 6 accélérateurs GPU Intel Ponte Vecchio qui font par ailleurs également l'objet d'annonces de la part du fondeur américain.

Intel a en effet révélé que son prochain GPU Ponte Vecchio sera disponible dans un facteur de forme OCP Accelerator Module (OAM) et un sous-système à quatre voies pour répondre aux besoins des applications HPC. Actuellement, différents modèles de GPU Xe pour systèmes HPC sont actuellement en cours de validation. « Nous avons lancé le serveur graphique Intel SG1, basé sur le Xe-LP, et nous échantillonnons le DG2, basé sur Xe-HPG sur d'autres serveurs qui sortent actuellement sur le marché. Nos produits basés sur Xe-HP sont utilisés pour l'activité Intel DevCloud », a par ailleurs précisé Trish Damkroger, responsable de l'activité HPC d'Intel.

Des serveurs Proliant durcis et refroidis par immersion chez Iceotope

Suite à l'accord OEM conclu entre HPE et Iceotope, ce dernier pourra de vendre des serveurs ProLiant dans ses châssis durcis à refroidissement liquide par immersion. Iceotope Technologies proposera des...

le 27/07/2021, par Andy Patrizio, IDG NS (adapté par Jean Elyan), 333 mots

La protection antiransomware des mainframes arrive sur les baies...

Développée à l'origine pour les mainframes Z, la solution Safeguarded Copy d'IBM arrive sur les baies FlashSystem. Elle prend un instantané des systèmes et le stocke là où les ransomwares ne peuvent pas...

le 23/07/2021, par Andy Patrizio, NetworkWorld (adapté par Serge Leblal), 400 mots

Le concept de NaaS prend pied dans les entreprises

Le NaaS comprend généralement du matériel, des logiciels et des licences intégrés, fournis sous forme d'abonnement. Le jour est proche où les administrateurs IT pourront commander des équipements réseau à p

le 20/07/2021, par Michael Cooney, IDG NS, et Serge Leblal, 2402 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Olivier Pomel

CEO de Datadog

« Intégrer la sécurité aux projets DevOps est évident »