Nvidiai vante les performances MLPerf de son accélérateur H100

le 17/04/2023, par Andy Patrizio, IDG NS (adapté par Jean Elyan), Infrastructure, 292 mots

La performance de l'IA est au coeur de plusieurs développements, dont une mise à jour logicielle du benchmark d'inférence MLPerf qui évalue la vitesse de traitement de l'IA par les GPU.

Nvidiai vante les performances MLPerf de son accélérateur H100

Alors que les systèmes d'IA et d'apprentissage machine travaillent avec des ensembles de données de plusieurs milliards d'entrées, les vitesses et les flux sont devenus plus importants que jamais. La publication par Nvidia de résultats de performances pour son accélérateur GPU Hopper H100 dans MLPerf 3.0, un benchmark de premier plan pour les charges de travail d'apprentissage profond. Comme on peut s'y attendre, Hopper a surpassé son prédécesseur A100 Ampere, dans les temps d'entraînement de l'IA, et ses performances se sont également améliorées grâce à des optimisations logicielles.

MLPerf exécute des milliers de modèles et de charges de travail pour simuler une utilisation réelle. Ces charges de travail incluent la classification d'images (ResNet 50 v1.5), le traitement du langage naturel (BERT Large), la reconnaissance vocale (RNN-T), l'imagerie médicale (3D U-Net), la détection d'objets (RetinaNet) et la recommandation (Deep Learning Recommendation Model, DLRM). Nvidia a publié pour la première fois les résultats des tests du H100 en utilisant le benchmark d'inférence MLPerf 2.1 en septembre 2022. Ces résultats ont montré que la puce H100 était 4,5 fois plus rapide que l'A100 pour exécuter différentes charges de travail d'inférence. Par rapport à MLPerf 2.1, le GPU H100 de Nvidia affiche des améliorations allant de 7 % à 54 % avec la version MLPerf 3.0.

Le concepteur a également indiqué que le modèle d'imagerie médicale était 30 % plus rapide avec MLPerf 3.0. Il faut préciser que Nvidia a effectué ces tests, et non un tiers indépendant. Mais ce n'est pas le seul fournisseur à procéder ainsi. Des dizaines d'autres, dont Intel, ont effectué leurs propres tests et devraient aussi constater des gains de performance.

Kneron vise l'ermbarqué avec sa puce KL730 taillée pour l'IA

Axée sur l'image, la puce d'intelligence artificielle KL730 de Kneron devrait permettre de nombreuses améliorations dans les domaines de l'edge computing, de la sécurité et de l'automobile. Dénommée KL730,...

le 22/08/2023, par Jon Gold / Network World (adaptation Jean Elyan), 533 mots

Volumez repense le stockage cloud en misant sur la performance...

Fondé par des vétérans dans l'industrie du stockage, Volumez promeut un logiciel d'orchestration du stockage qui exploite des ressources Linux pour exécuter des charges de travail exigeantes en utilisant une...

le 23/06/2023, par Serge LEBLAL, 939 mots

Des serveurs Lenovo edge pour l'IA et le traitement des données

Les serveurs Lenovo ThinkEdge offriront une plus grande capacité de traitement là où les données sont générées et permettront aux entreprises d'effectuer de l'inférence en temps réel à la périphérie. Au cours...

le 20/06/2023, par Andy Patrizio, IDG NS (adapté par Jean Elyan), 565 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Céline Polo

DRH du groupe iliad

"Nous recrutons dans des métiers en tension, en particulier sur l'infrastructure réseau, pour lesquels il y a...