Des accélérateurs IPU pour doper les traitements IA

le 29/10/2021, par Andy Patrizio, IDG NS (adapté par Jean Elyan), Infrastructure, 413 mots

Les serveurs avec accélérateurs IA peuvent accroître les performances à un niveau équivalent à celui des supercalculateurs, le tout dans un encombrement réduit. 

Des accélérateurs IPU pour doper les traitements IA

L'entreprise britannique Graphcore, qui développe des accélérateurs pour l'IA et l'apprentissage machine, a considérablement augmenté les performances de ses serveurs IPU (Intelligence Processing Unit) massivement parallèles. Les puces orientées IA de Graphcore sont vendues dans des designs montés en rack appelés IPU-POD. Jusqu'à présent, le rack IPU-POD64 existant pouvait accueillir un maximum de 64 unités. Mais les derniers racks IPU-POD128 et IPU-POD256 peuvent en accueillir deux et quatre fois plus.

Graphcore affirme que les 32 pétaFLOPS de capacité de traitement d'IA de l'IPU-POD 128 et les 64 pétaFLOPS de l'IPU-POD 256, met ses racks au niveau des supercalculateurs d'IA, avec en plus une empreinte beaucoup plus faible que celle d'un superordinateur classique, dont la taille est celle d'un terrain de basket. Les systèmes IPU-POD sont capables de traiter séparément les tâches de calcul d'IA des serveurs, ce qui signifie que différents types de charges de travail d'IA nécessitant des niveaux de performance différents peuvent être exécutés sur le même POD. Par exemple, on peut allouer un IPU-POD à l'apprentissage plus rapide de grands modèles de langage basés sur Transformer sur l'ensemble d'un système, ou diviser le système en vPOD plus petits et plus flexibles pour permettre à un plus grand nombre de développeurs d'accéder aux IPU.

Du HPC au format compact

Cette répartition est rendue possible grâce à la pile logicielle Poplar de Graphcore, qui comprend un SDK, la bibliothèque Graphcore Communication Library (GCL) pour gérer la communication et la synchronisation entre les IPU, et PopRun et PopDist, qui permettent aux développeurs d'exécuter leurs applications sur plusieurs systèmes IPU-POD. Pour la communication IPU intra-rack, les précédents POD utilisaient des IPU-Links de 64Gb/s. Désormais, l'IPU-POD128 et l'IPU-POD256 utilisent le nouveau Gateway Links, une connexion horizontale de rack à rack qui étend les liens IPU-Links en utilisant un tunnel sur l'Ethernet 100Gb.

Les deux systèmes ont été développés pour les hyperscalers du cloud, les laboratoires nationaux de calcul scientifique et les entreprises disposant de grandes équipes d'IA sur des marchés comme les services financiers ou l'industrie pharmaceutique. Parmi les premiers clients de Graphcore figurent le Lawrence Berkeley National Laboratory du Département américain de l'énergie et J.P. Morgan. Les IPU-POD16, IPU-POD64, IPU-POD128 et IPU-POD256 sont livrés dès aujourd'hui par le géant français de l'informatique ATOS et d'autres partenaires intégrateurs de systèmes dans le monde entier. Ils sont aussi disponibles dans le cloud chez Cirrascale.

La sécurité des baies de stockage inquiéte les experts

La sécurité des systèmes de stockage est inférieure à celle des ordinateurs et des réseaux. C'est ce qu'a constaté Continuity Software en analysant les systèmes d'entreprises de plusieurs secteurs industriels...

le 25/11/2021, par Shweta Sharma, CSO (adaptation Jean Elyan, 1227 mots

Une carte FPGA Xiling Alveo U55C pour accélérer les calculs

La carte FPGA Alveo U55C de Xilinx est plus petite, comporte plus de mémoire et consomme moins d'énergie que la version précédente, ce qui la rend plus intéressant pour le calcul haute performance. Le dernier...

le 22/11/2021, par Andy Patrizio, IDG NS (adapté par Jean Elyan), 686 mots

Des accélérateurs IPU pour doper les traitements IA

Les serveurs avec accélérateurs IA peuvent accroître les performances à un niveau équivalent à celui des supercalculateurs, le tout dans un encombrement réduit.  L'entreprise britannique Graphcore, qui...

le 29/10/2021, par Andy Patrizio, IDG NS (adapté par Jean Elyan), 413 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Céline Polo

DRH du groupe iliad

"Nous recrutons dans des métiers en tension, en particulier sur l'infrastructure réseau, pour lesquels il y a...