Des instances GPU Nvidia fractionnées chez Vultr

le 01/06/2022, par Andy Patrizio, IDG NS (adapté par Jean Elyan), Cloud / Virtualisation, 819 mots

Pour répondre aux besoins des développeurs désirant expérimenter l'accélération GPU, Vultr propose des instances fractionnées de Nvidia A100 aux clients qui n'ont pas besoin de puissance facturée au prix fort.

Des instances GPU Nvidia fractionnées chez Vultr

Le fournisseur de services cloud Vultr affirme qu'il est le premier à proposer une plateforme de virtualisation de GPU aux petites et moyennes entreprises qui n'ont pas besoin des options puissantes et beaucoup plus coûteuses des grands acteurs du cloud. En 2020, lors de la présentation du processeur Ampere A100, Nvidia avait précisé que ce processeur graphique était le premier à prendre en charge le GPU Multi-instance, ou MIG, ce qui rendait possible le partitionnement du GPU en sept GPU virtuels, de la même manière qu'un hyperviseur partitionne les coeurs de CPU. Aujourd'hui, Vultr affirme qu'il est le premier fournisseur cloud à proposer des instances fractionnées de GPU A100 à ses clients via sa plateforme Vultr Talon. D'après le fournisseur, il n'existe pas de solution universelle pour répondre aux diverses charges de travail des clients. Les autres fournisseurs de services cloud proposant des instances de GPU n'offrent qu'un GPU unique complet, à un prix élevé. La taille de l'instance Talon de Vultr est beaucoup plus petite et son prix beaucoup moins élevé, et répond aux besoins plus modestes de certains clients.

Le coût élevé des instances GPU est souvent justifié quand il s'agit d'exécuter les charges de travail les plus importantes des entreprises (simulation, modélisation ou encore IA), surtout si elles nécessitent plusieurs GPU fonctionnant en parallèle. De nombreuses entreprises et développeurs aimeraient bien se frotter à l'IA, mais le coût d'un seul GPU peut s'avérer prohibitif pour se lancer et expérimenter. « Une instance complète ou un système à huit cartes auprès d'un fournisseur comme AWS coûte plusieurs milliers de dollars par mois, ce qui est hors de portée de beaucoup d'entreprises », fait remarquer J.J. Kardwell, le CEO de Vultr. « De multiples charges de travail d'IA et de ML peuvent se passer d'une instance de ressources complète », a ajouté M. Kardwell. « Généralement, une grande partie du travail des chercheurs et des développeurs consiste à tester et à itérer, et leur utilisation est très irrégulière. Ils peuvent effectuer des tests sur des ensembles de données à petite échelle, puis, au fil du temps, passer à une échelle supérieure », a encore expliqué M. Kardwell. Mais les grands fournisseurs de cloud ne proposent pas de GPU fractionnée.

En plus du matériel, Vultr offre la pile complète de logiciels d'entreprise Nvidia AI, avec les outils, les bibliothèques et les frameworks, et la technologie adjacente développée par le fournissuer de Santa Clara pour aider les utilisateurs à tirer le meilleur parti de la technologie. « D'autres fournisseurs proposant des instances GPU incluent leurs propres outils GPU, mais à quoi bon réinventer la roue, alors que Nvidia l'a déjà fait ? », a estimé M. Kardwell. « Nvidia a construit la meilleure pile logicielle de sa catégorie pour tirer le meilleur parti du matériel GPU. Les utilisateurs peuvent accéder à ces produits à un prix vraiment abordable, et profiter du meilleur matériel GPU au monde et à une pile logicielle spécialement optimisée pour cela », a encore déclaré le CEO de Vultr.

Une croissance très discrète

Créé en 2014, Vultr est resté jusqu'ici très discret, ce qui pourrait sembler contraire à ses intérêts. Le fournisseur n'a fait aucune levée de fonds auprès d'un capital-risqueur et, jusqu'à récemment, il a fonctionné sans équipe de vente ou de marketing. Mais, grâce au seul bouche-à-oreille, il a connu une croissance organique jusqu'à atteindre un taux courant annualisé de plus de 125 millions de dollars, et il compte 25 sites dans le monde. Vultr propose un portefeuille classique de services, notamment du cloud computing, du stockage dans le cloud et bare metal. Le coût de ses services est son principal atout, et il cible les petits clients. « Nous sommes nettement moins chers que les hyperscalers, et nous pouvons répondre aux besoins essentiels de la majorité des utilisateurs », a déclaré M. Kardwell. « Les hyperscalers sont très focalisés sur les tâches des plus grandes entreprises qui ont de très gros budgets, mais à l'évidence, les autres entreprises et développeurs du monde entier sont très mal desservis par les grands clouds technologiques », a-t-il ajouté.

Selon J.J. Kardwell, les services courants de Vultr sont 30 % à 50 % moins chers que ceux d'AWS, et pour les utilisateurs gourmands en bande passante, son tarif est 1/15e moins élevé que celui des meilleurs fournisseurs de services cloud. « Ces résultats sont obtenus grâce à l'automatisation et à l'optimisation », a-t-il ajouté. Talon sera d'abord disponible sur le site de la société dans le New Jersey avant d'être déployé dans le monde entier dans les semaines à venir. Dans les mois à venir, le fournisseur prévoit également d'ajouter des GPU haut de gamme, orientés graphiques, afin de répondre à différents cas d'usage, comme les bureaux virtuels et le traitement graphique.

VMware apporte la connectivité cloud sur site à vSphere et vSAN

Avec ses offres vSphere+ et vSAN+ par abonnement, VMware renforce la connexion de ses systèmes sur site au cloud. Afin d'améliorer la gestion et la fusion des applications sur site avec les ressources du...

le 30/06/2022, par Michael Cooney, IDG NS (adapté par Jean Elyan), 676 mots

Après Marseille, le cloud d'Oracle prend ses quartiers à la Courneuve

Après Marseille, Oracle ouvre sa deuxième installation dédiée au cloud en région parisienne. Hébergées chez Interxion, les infrastructures accueilleront plusieurs services du fournisseur dont OCI ou du PRA en...

le 20/06/2022, par Jacques Cheminat, 575 mots

Le projet Network Service Mesh de la CNCF met en réseau les tâches...

La technologie développée par la Cloud Native Computing Foundation (CNCF) permet de relier les tâches d'entreprise multicloud au niveau de la couche réseau, quel que soit l'endroit où elles sont exécutées. La...

le 06/06/2022, par Michael Cooney, IDG NS (adapté par Jean Elyan), 827 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Céline Polo

DRH du groupe iliad

"Nous recrutons dans des métiers en tension, en particulier sur l'infrastructure réseau, pour lesquels il y a...