Nvidia lance matériels et logiciels IA pour les fournisseurs cloud - Actualités RT Infrastructure

Nvidia lance matériels et logiciels IA pour les fournisseurs cloud

le 25/03/2019, par Andy Patrizio, Network World (adapté par Jean Elyan), Infrastructure, 534 mots

Le fournisseur de circuits graphiques Nvidia a dévoilé des serveurs blade, des bibliothèques de logiciels IA et des GPU basse consommation pour fournir des services cloud de calcul intensif.

Nvidia lance matériels et logiciels IA pour les fournisseurs cloud

Nvidia a profité de la GPU Technology Conference (GTC) organisée du 18 au 21 mars à San José, Californie, pour lancer des serveurs blade sur site et annoncer une librairie d'accélération IA pour le cloud. Le serveur blade RTX peut héberger jusqu'à 40 GPU de génération Turing dans un boîtier 8U, et il est possible de combiner plusieurs boîtiers pour créer un « pod » pouvant accueillir jusqu'à 1280 GPU fonctionnant comme un seul système et utilisant la technologie Mellanox comme interconnexion de stockage et de réseau. Cela explique probablement pourquoi Nvidia a payé près de 7 milliards de dollars pour acquérir Mellanox. À la différence de l'IA, domaine où Nvidia est devenu leader, le serveur Blade RTX est destiné au rendu 3D, au ray tracing et aux jeux dans le cloud. Le concepteur a déclaré que cette configuration permettra de réaliser des rendus d'images 3D réalistes en temps réel pour la réalité virtuelle (VR) et la réalité augmentée (AR). Également présents au GTC, Dell EMC, HPE, Lenovo, ASUS et Supermicro ont tous annoncé des serveurs RTX.

Concernant l'intelligence artificielle, Nvidia a introduit la bibliothèque CUDA-X AI, seule librairie d'accélération de bout en bout au monde pour la science des données, selon le concepteur. Le langage CUDA de Nvidia utilise une syntaxe C++ pour programmer spécifiquement ses GPU. Typiquement, un workflow d'apprentissage profond, d'apprentissage machine et d'analyse des données passe par le traitement des données, la détermination des caractéristiques, le training, la vérification et le déploiement. Ce sont des étapes très différentes qui nécessitent généralement différents types de traitement. CUDA-X AI utilise les GPU NvidiaTensor Core pour traiter le pipeline IA de bout en bout. Son adoption initiale est considérable. CUDA-X AI a été adoptée par les principaux services cloud comme Amazon Web Services, Google Cloud Platform et Microsoft Azure, mais aussi par Charter, PayPal, SAS et Walmart.

Moins gourmand en énergie

Concernant les serveurs sur site, Nvidia a introduit une génération de processeurs GPU T4 qui, selon Jen-Hsun Huang, le CEO de Nvidia, ne consomme que 70 watts d'énergie, très en deçà de la consommation habituelle des cartes accélératrices. « Ces GPU ont la taille d'une barre chocolatée et s'intègrent dans tous les serveurs de datacenters les plus courants ». Comme d'habitude, Nvidia a annoncé que ces GPU seraient supportés par les principaux fournisseurs de serveurs. Cisco, Dell EMC, HPE, Inspur, Lenovo et Sugon proposent désormais tous des serveurs Nvidia T4 GPU pour l'analyse de données, l'apprentissage machine et l'apprentissage profond.

De plus, Amazon Web Services a annoncé la sortie de sa dernière instance équipée d'un GPU, précisant qu'elle prenait en charge les GPU T4 Tensor Core de NVIDIA. Cette instance sera destinée en particulier à traiter des charges d'apprentissage machine. Le service Elastic Container Service pour Kubernetes d'Amazon prendra également en charge T4. « Parce que les GPU T4 sont extrêmement efficaces pour l'inférence IA, ils sont bien adaptés aux entreprises qui recherchent des solutions cloud puissantes et rentables pour déployer des modèles d'apprentissage machine en production », a déclaré dans un article de blog Ian Buck, vice-président et directeur général de l'informatique accélérée chez Nvidia.

Des datacenters plus verts chez HPE grâce à l'IA

HPE et le laboratoire national sur les énergies renouvelables du Département américain de l'énergie ont décidé d'associer leurs efforts pour mettre au point des technologies IA et ML qui permettront...

le 03/12/2019, par Andy Patrizio, Network World (adapté par Jean Elyan), 533 mots

10 tendances relevées par le Gartner dans les infrastructures

Le cabinet d'études a dressé la liste des dix facteurs les plus importants qui devraient affecter l'infrastructure et l'opérationnel au cours des prochaines années. Lors de la conférence IT Symposium/XPO...

le 24/10/2019, par Michael Cooney, IDG NS (adapté par Jean Elyan), 1090 mots

Clap de fin pour OpenStack chez Suse

En perte de vitesse dans les entreprises, la plateforme cloud open source OpenStack perd un allié de poids avec la défection de Suse. L'éditeur allemand Suse spécialiste de Linux abandonne sa distribution...

le 09/10/2019, par Maryse GROS, 146 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Jamshid Rezaei

DSI de Mitel

Le DSI de Mitel, Jamshid Rezaei, a adopté le système japonais du Kaizen prônant l'amélioration continue...