Pour rivaliser avec Nvidia, AMD mise sur la mémoire avec sa puce Instinct MI300X

le 19/06/2023, par Andy Patrizio, IDG NS (adapté par Jean Elyan), Infrastructure, 652 mots

Selon la CEO d'AMD, Lisa Su, une seule puce Instinct MI300X est capable de faire le travail de plusieurs GPU,grâce à sa grande quantité de mémoire partagée.

Pour rivaliser avec Nvidia, AMD mise sur la mémoire avec sa puce Instinct MI300X

Avec sa puce Instinct, lequel serait capable de faire le travail de plusieurs GPU, AMD défie Nvidia sur le terrain de l'intelligence artificielle. Mardi dernier, lors d'un événement organisé à San Francisco où elle a présenté la puce, la CEO d'AMD a déclaré que l'Instinct MI300X était « la chose la plus complexe jamais construite par AMD ». De la taille d'un dessous de verre, l'Instinct MI300X comporte 146 milliards de transistors, une mémoire HBM3 à large bande passante partagée par le CPU et le GPU pouvant atteindre 192 Go, pour un total de 13 chiplets. La puce dispose également d'une bande passante mémoire de 5,2 TB/s, c'est-à-dire qu'elle est 60 % plus rapide que la H100 de Nvidia. L'Instinct MI300X se compose de plusieurs coeurs CPU Zen et d'un GPU CDNA 3.

Mais l'énorme quantité de mémoire est le véritable argument de vente, selon Mme Su. « Aujourd'hui, on constate souvent dans l'industrie que la taille des modèles est de plus en plus grande et que l'on a besoin de plusieurs GPU pour faire fonctionner les derniers grands modèles de langage », a-t-elle déclaré. « Avec la puce MI300X, on peut réduire le nombre de GPU, et comme la taille des modèles continue de croître, ce critère deviendra encore plus important. Il offre plus de mémoire, plus de bande passante de mémoire et moins de GPU sont nécessaires ». Selon AMD, du fait de son design, la puce MI300X est 8 fois plus puissante que la puce MI250X qui équipe le Frontier (le superordinateur le plus rapide au monde) et 5 fois plus économe en énergie. Elle équipera le système El Capitan de plus de deux exaFLOP qui sera construit l'année prochaine au Lawrence Livermore National Labs.

Accompagné l'Open Compute

Lors de ce même évènement, Mme Su a également dévoilé la plateforme Instinct. Ce design de référence de serveur basé sur les spécifications de l'Open Compute Project utilise 8 GPU MI300X pour les charges de travail d'entraînement et d'inférence de l'IA générative. Cela signifie que les entreprises et les hyperscalers peuvent utiliser la plateforme Instinct pour intégrer des GPU MI300X dans des racks de serveurs OCP existants. « Nous accélérons réellement le temps de mise sur le marché des clients et réduisons les coûts de développement globaux, tout en facilitant le déploiement du MI300X dans leur rampe d'IA existante et leur construction de serveurs », a déclaré la CEO d'AMD. 

Un CPU taillé pour le cloud

AMD a également présenté son processeur EPYC 97X4 de quatrième génération, nom de code Bergamo, spécialement conçu pour les environnements cloud, du fait de ses nombreux coeurs pour l'exécution des machines virtuelles. Bergamo est doté de 128 coeurs avec hyperthreading, de sorte qu'un système à deux sockets peut disposer d'un maximum de 256 CPU virtuels. Mme Su a expliqué que les charges de travail natives du cloud étaient « nées dans le cloud ». Elles sont conçues pour tirer pleinement parti des derniers frameworks du cloud et fonctionnent essentiellement comme des microservices. Le design de ces processeurs est différent de celui de l'IT traditionnelle : les processeurs Bergamo sont plus petits et très orientés vers le débit, d'où la conception à plusieurs coeurs. « Bergamo exploite toute l'infrastructure de plateforme déjà développée pour Genoa. Il prend en charge la même mémoire de nouvelle génération et les mêmes capacités d'E/S. Mais il permet, grâce à ce point de conception, d'obtenir des performances supérieures à celles des processeurs traditionnels. Surtout, il permet, avec ce point de conception, de passer à 128 coeurs par socket pour des performances de pointe et une efficacité énergétique dans le cloud », a aussi expliqué Mme Su. Des échantillons du MI300X et du Bergamo seront disponibles au cours du troisième trimestre de cette année.

Kneron vise l'ermbarqué avec sa puce KL730 taillée pour l'IA

Axée sur l'image, la puce d'intelligence artificielle KL730 de Kneron devrait permettre de nombreuses améliorations dans les domaines de l'edge computing, de la sécurité et de l'automobile. Dénommée KL730,...

le 22/08/2023, par Jon Gold / Network World (adaptation Jean Elyan), 533 mots

Volumez repense le stockage cloud en misant sur la performance...

Fondé par des vétérans dans l'industrie du stockage, Volumez promeut un logiciel d'orchestration du stockage qui exploite des ressources Linux pour exécuter des charges de travail exigeantes en utilisant une...

le 23/06/2023, par Serge LEBLAL, 939 mots

Des serveurs Lenovo edge pour l'IA et le traitement des données

Les serveurs Lenovo ThinkEdge offriront une plus grande capacité de traitement là où les données sont générées et permettront aux entreprises d'effectuer de l'inférence en temps réel à la périphérie. Au cours...

le 20/06/2023, par Andy Patrizio, IDG NS (adapté par Jean Elyan), 565 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Céline Polo

DRH du groupe iliad

"Nous recrutons dans des métiers en tension, en particulier sur l'infrastructure réseau, pour lesquels il y a...