Les applications d'IA, de sécurité et de mise en réseau poussent à l'adoption du DPU dans les entreprises
Les commutateurs intelligents smartswitchs, comme le switch CX 10000 d'Aruba, stimulent l'utilisation des DPU dans les entreprises.
Parce qu'elles exigent des performances système accrues, les applications d'IA, de sécurité et de mise en réseau encouragent l'utilisation d'unités de traitement de données (Data Processing Unit ou DPU) dans les grandes entreprises. Si jusqu'à présent, l'essentiel du développement des DPU visait les hyperscalers, désormais, leur usage dans le centre de données et ailleurs dans le réseau de l'entreprise devrait augmenter. C'est justement ce que permet la technologie « smartswitch » de la start-up Pensando, acquise par AMD en avril 2022, qui intègre la technologie DPU avec les commutateurs réseau. Le CX 10000 de Aruba (HPE) est l'un des premiers switchs à combiner la technologie DPU de Pensando à des capacités de commutation haut de gamme. Disponible depuis le début de l'année 2022, le CX 10000 est un boîtier de centre de données L2/3 top-of-the-rack, doté d'une capacité de commutation de 3,6 Tbps. Le boîtier permet par exemple de se passer d'appareils distincts pour gérer le trafic à faible latence, la sécurité et l'équilibrage des charges. « Les smartswitchs offrent une solution simple pour faire entrer la technologie DPU dans l'entreprise, car elle permet de supprimer les anciens appareils et de mettre à niveau les réseaux, et à une échelle significative », a déclaré Soni Jiandani, directrice des affaires commerciales du groupe Technologies et Solutions réseau d'AMD Pensando.
Ce switch rend également la technologie plus accessible à de nombreuses entreprises. « Les 300 CX 10000 et plus, installés actuellement, se trouvent aussi bien chez de gros clients que dans des entreprises de taille moyenne qui cherchent à tirer parti des DPU, exactement comme les hyperscalers. L'intégration du smartswitch et du DPU colle aux initiatives de consolidation, de modernisation et de sécurité fondamentales des entreprises », a encore déclaré Mme Jiandani, ajoutant que « dès le premier jour de la mise en oeuvre, elles peuvent profiter de la visibilité, de la télémétrie et de la performance exceptionnelles apportées par la technologie ».
Améliorer les performances des commutateurs
Selon les experts, même si pour le moment le CX 10000 est le seul commutateur du marché à prendre en charge la technologie DPU combinée, d'autres devraient voir le jour. « Au cours de l'année 2022 et au premier trimestre 2023, nous avons constaté une forte croissance de la gamme Smartswitch de HPE Aruba et de la plateforme CX 10000. Davantage de partenariats de fournisseurs devraient déboucher sur la production de plateformes Smartswitch au cours des deux prochaines années, avec les fournisseurs occidentaux les plus importants (Cisco, Arista, Juniper, Dell) en vue d'explorer, mais le plus souvent, de lancer cette classe de produits en 2024 », a déclaré Alan Weckel, analyste fondateur du cabinet d'études de marché 650 Group, dans un rapport récent. « D'ici à la fin de la période de prévision, plus de la moitié des ports dans les prévisions du 650 Group seront intelligents ou programmables, et proviendront de solutions basées sur le DPU et la programmabilité directe dans l'ASIC lui-même », a expliqué l'analyste. « À mesure de l'évolution du marché des centres de données vers l'IA/ML, au-delà des charges de travail traditionnelles, le réseau devra évoluer et offrir plus que de la vitesse et des flux et notamment une connectivité entre les appareils de traitement et l'utilisateur final », a encore souligné Alan Weckel.
« Les ASIC de commutation traditionnels n'ont pas la capacité de traitement, les ressources de mémoire matérielle suffisantes ou les plans de données programmables flexibles qui leur permettraient de mettre en oeuvre des fonctions ou des services de réseau dynamique », a encore déclaré M. Weckel. « La mise en réseau va devenir plus puissante et les fonctions de réseau Stateful pour la virtualisation du réseau, la sécurité renforcée (par exemple, les pare-feu dynamiques), l'équilibrage des charges, la qualité de service QoS et la mesure des coûts, ne seront plus exercées par des appareils coûteux, mais par des commutateurs Ethernet ». Selon M. Weckel, « les clients pourront profiter de performances accrues, faire des économies de coûts et disposer d'un réseau plus souple grâce aux DPU qui y seront intégrés ». Dans les environnements virtuels, l'intégration de fonctions comme le chiffrement du trafic réseau et le pare-feu dans les DPU devrait également stimuler l'utilisation de cette technologie. Selon les experts, le traitement requis pour appliquer les politiques de microsegmentation, qui divisent les réseaux en zones protégées par un pare-feu, peut aussi être pris en charge par les smartNIC. « La capacité à fournir une sécurité est-ouest, une microsegmentation et des fonctionnalités de pare-feu sur chaque serveur et à protéger les applications par le biais d'un modèle distribué basé sur des politiques sera l'un des principaux atouts du DPU », a indiqué Mme Jiandani. « Actuellement, les clients constatent une réduction de 30 à 60 % du coût total de possession dans l'environnement DPU ».
Les développements de l'IA nécessitent plus de capacités réseau
Les entreprises peuvent aussi exploiter les DPU pour d'autres applications. « Les décharges de stockage comprennent des accélérateurs pour le cryptage en ligne et la prise en charge du NVMe-oF. L'hyperviseur peut également être déplacé du CPU vers le SmartNIC, comme dans le cas du projet Monterey de VMWare, ce qui peut améliorer l'utilisation sans nécessiter de personnalisation importante », a déclaré pour sa part Baron Fung, directeur principal du groupe Dell Oro, lors d'une récente présentation au SmartNIC Summit. Dans le cadre de son projet Monterey, VMware a développé une fonctionnalité appelée DPU-based Acceleration for NSX, qui permet aux clients de déplacer les fonctions de réseau, d'équilibrage de charge et de sécurité vers un DPU, libérant ainsi la capacité du CPU du serveur. Selon VMware, le système peut prendre en charge des pare-feu distribués sur le DPU, ou de grands serveurs de base de données qui pourront gérer en toute sécurité des tonnes de trafic sans impact sur leur environnement serveur. « Alors que le projet Monterey devrait stimuler l'adoption des smartNIC par les entreprises et qu'il est soutenu par les principaux fournisseurs tels qu'AMD, Intel et Nvidia, l'intérêt pour le projet a mis du temps à se manifester jusqu'à présent, car les utilisateurs finaux sont encore en train d'accéder au coût total de possession (TCO) des smartNIC », a déclaré M. Fung.
« Dell'Oro prévoit qu'au cours des cinq prochaines années, le taux de croissance du marché des cartes d'interface réseau standard restera à un chiffre, mais selon le cabinet d'études, la croissance du marché des smartNIC, qui comprend d'autres variantes comme les unités de traitement des données (DPU) ou les unités de traitement de l'infrastructure (Infrastructure Processing Unit, IPU), dépassera les 30 % », a expliqué M. Fung. Une autre application majeure consiste à aider les grandes entreprises à prendre en charge les applications d'IA. Dans ses dernières prévisions quinquennales sur les centres de données, le groupe Dell'Oro a déclaré que 20 % des ports de commutation Ethernet des centres de données seront connectés à des serveurs accélérés pour prendre en charge les charges de travail d'IA d'ici à 2027. « L'essor de nouvelles applications d'IA générative contribuera à alimenter encore plus la croissance d'un marché des commutateurs de centres de données déjà robuste, qui devrait dépasser les 100 milliards de dollars de ventes cumulées au cours des cinq prochaines années », a précisé Sameh Boujelbene, vice-président de Dell'Oro.
Un virage important pour l'Ethernet
Dans un autre rapport récent, le 650 Group a déclaré que l'IA/ML imposait au réseau d'énormes exigences en matière de performance de la bande passante, et que, au cours des cinq prochaines années, l'IA/ML serait l'un des principaux moteurs de croissance pour la commutation des centres de données. « Avec l'augmentation de la bande passante dans l'IA, la part de la commutation Ethernet liée à l'IA/ML et à l'informatique accélérée occupera une part significative du marché d'ici à 2027, et ne sera plus un marché de niche comme c'est le cas aujourd'hui », a déclaré le 650 Group. « Il faut s'attendre à des innovations constantes dans les technologies Ethernet pour répondre aux exigences croissantes des réseaux d'IA », a encore déclaré Mme Jiandani. À propos de la technologie DPU d'AMD Pensando, la directrice des affaires commerciales du groupe Technologies et Solutions réseau a déclaré « qu'elle présentait l'avantage d'être programmable, de sorte que les clients pourront construire des pipelines d'IA personnalisables avec leurs propres capacités de gestion de la congestion ». Le soutien apporté à des initiatives telles que l'Ultra Ethernet Consortium (UEC) fait partie des développements en cours.
AMD, Arista, Broadcom, Cisco, Eviden, HPE, Intel, Meta et Microsoft ont récemment annoncé la création de l'UEC. Ce groupe hébergé par la Fondation Linux travaille au développement d'avancées dans le domaine de l'Ethernet au niveau de la couche physique, de la liaison, du transport et du logiciel. L'idée est de rendre la technologie Ethernet actuelle plus puissante afin de gérer l'échelle et la vitesse requises par l'IA. « Nous avons la capacité de nous adapter aux services essentiels que nous devons fournir aux réseaux d'IA et aux applications qui s'exécutent sur ces réseaux », a précisé Mme Jiandani. « Nous allons mettre en place un vaste écosystème de partenaires, qui contribuera à réduire le coût des réseaux d'IA et donnera aux clients la liberté de choisir les meilleures technologies de réseau. Nous voulons que les clients puissent intégrer l'IA d'une manière hautement programmable », a-t-elle ajouté.
Le GPU en embuscade
En ce qui concerne le marché de l'IA, Manuvir Das, vice-président de Nvidia pour l'informatique d'entreprise, a déclaré lors de la Goldman Sachs Communacopia and Tech Conference que le marché total de l'IA représentera 300 milliards de dollars en puces et en systèmes, 150 milliards de dollars en logiciels d'IA générative et 150 milliards de dollars en logiciels d'entreprise omniverse. « Ces chiffres représentent une croissance à long terme, sans toutefois préciser de date cible », aurait déclaré M. Das, selon un article de Yahoo Finance. Nvidia capitalise de manière énorme sur l'IA et l'utilisation de sa technologie GPU, principalement dans les réseaux hyperscale, dans l'immédiat. Au second trimestre, le chiffre d'affaires de l'entreprise s'élevait à 13,51 milliards de dollars, soit un bond de 101 % d'une année sur l'autre, qu'elle attribue en grande partie au développement de l'IA.