Cisco muscle sa famille Silicon One

le 22/06/2023, par Michael Cooney, IDG NS (adapté par Jean Elyan), Réseaux, 888 mots

Les deux puces Silicon One programmables haut de gamme ajoutés par Cisco peuvent prendre en charge des clusters GPU massifs pour les charges de travail d'IA/ML.

Cisco muscle sa famille Silicon One

Les puces Silicon One programmables (5 nm) dévoilées par Cisco sont destinées à soutenir les infrastructures dédiés à l'intelligence artificielle (IA) et d'apprentissage machine (ML) à grande échelle des entreprises et des hyperscalers. Les circuits Silicon One G200 (51,2 Tbps) et G202 (25,6 Tbps) font passer la famille Silicon One à 13 unités. Chaque chipset est personnalisable pour le routage ou la commutation, si bien qu'il n'est plus nécessaire de disposer d'architectures de silicium différentes pour chaque fonction réseau, et ce grâce à un système d'exploitation commun, un code de transfert programmable P4 et un kit de développement logiciel (SDK).

Selon Rakesh Chopra, Cisco Fellow au sein du Common Hardware Group du fournisseur, les équipements positionnés au sommet de la famille Silicon One apportent des améliorations idéales pour les déploiements AI/ML exigeants ou d'autres applications hautement distribuées. « L'industrie est en train de vivre un énorme changement. Jusque-là, nous avions l'habitude de construire des sortes de clusters de calcul haute performance raisonnablement petits qui semblaient grands à l'époque, mais ce n'était rien comparé aux déploiements absolument gigantesques requis pour l'IA/ML », a déclaré M. Chopra. Les modèles d'IA/ML sont passés de quelques GPU à des dizaines de milliers reliés en parallèle et en série. « Le nombre de GPU et l'échelle du réseau sont sans précédent », a-t-il ajouté.



La famille Silicon One comprend désormais 13 puces programmables dédiées au routage ou à la commutation. (Crédit Cisco)

Support des fonctions Ethernet améliorées

Parmi les améliorations apportées par Silcon One, le dirigeant pointe le processeur de paquets parallèles programmable P4 capable de lancer plus de 435 milliards de recherches par seconde. « Le tampon de paquets est entièrement partagé, et chaque port a un accès complet au tampon de paquets, indépendamment de ce qui se passe », a expliqué M. Chopra. C'est très différent de l'attribution de tampons à des ports d'entrée et de sortie individuels, laquelle fait dépendre le tampon du port auquel sont destinés les paquets. « Cette attribution limite la capacité à écrire à travers les rafales de trafic et expose davantage au risque de laisser tomber un paquet, ce qui diminue vraiment les performances de l'IA/ML », a-t-il encore expliqué. « Par ailleurs, chaque dispositif Silicon One peut prendre en charge 512 ports Ethernet, ce qui permet aux clients de construire un cluster AI/ML 32K 400G GPU avec 40 % de commutateurs en moins que les autres dispositifs silicium nécessaires pour prendre en charge ce cluster », a ajouté M. Chopra.



Les performances du circuit G200 de quatrième génération décuplent le débit théoriques de la famille Silicon One. (Crédit Cisco)

La fonction essentielle du circuit Silicon One consiste dans la prise en charge des fonctions Ethernet améliorées, comme le contrôle de flux, la détection et l'évitement des congestions. Le composant intégre également des capacités avancées d'équilibrage de charge et de « pulvérisation de paquets » - ou « packet-spraying » -  qui répartissent le trafic sur plusieurs GPU ou commutateurs afin d'éviter les encombrements et améliorer la latence. « La récupération des défaillances de liaison basée sur le matériel permet aussi de garantir que le réseau fonctionne avec une efficacité maximale », a déclaré le fournisseur.

En route vers la Scheduled Fabric

En combinant ces technologies Ethernet améliorées et en les poussant plus loin, les clients peuvent finalement mettre en place ce que Cisco appelle un fabric programmé ou Scheduled Fabric. « Dans un Scheduled Fabric, les composants physiques - puces, optiques, commutateurs - sont reliés entre eux comme dans un grand châssis modulaire et communiquent les uns avec les autres pour fournir un comportement de planification optimal », a déclaré M. Chopra. « Au final, le débit de bande passante est beaucoup plus élevé, en particulier pour les flux d'IA/ML, ce qui permet d'obtenir un temps d'exécution des tâches beaucoup plus court du fait que les GPU fonctionnent beaucoup plus efficacement », a-t-il ajouté. « Avec les appareils et les logiciels Silicon One, les clients peuvent déployer autant de fonctionnalités, en plus ou en moins, qu'ils le souhaitent », a encore déclaré M. Chopra.

Cisco n'est que l'un des acteurs de ce marché des réseaux pour l'IA en pleine croissance à côté de Broadcom, Marvell, Arista et d'autres. Selon un blog récent du 650 Group, ce marché devrait atteindre 10 milliards de dollars d'ici à 2027, contre 2 milliards de dollars aujourd'hui. « Les réseaux pour l'IA prospèrent depuis deux ans déjà, date à partir de laquelle nous avons commencé à suivre la mise en réseau de l'IA/ML. Dans nos prévisions, l'IA/ML est considérée comme une opportunité massive pour la mise en réseau et comme l'un des principaux moteurs de la croissance de la mise en réseau des datacenters», indique le blog du 650 Group. « L'impact de l'IA/ML sur la mise en réseau repose sur l'énorme quantité de bande passante dont les modèles d'IA ont besoin pour s'entraîner, les nouvelles charges de travail et les puissantes solutions d'inférence qui apparaissent sur le marché. En outre, de nombreux secteurs verticaux feront l'objet de multiples efforts de numérisation en raison de l'IA au cours des dix prochaines années », a ajouté le groupe. « Les appareils Cisco Silicon One G200 et G202 sont actuellement testés par des clients non identifiés et sont disponibles sous forme d'échantillons », a précisé M. Chopra.

Cisco muscle les capacités de Catalyst SD-WAN

Gestion du routage, intégration avec les systèmes Microsoft Sentinel et Skyhigh Security, et commutateur Catalyst edge font partie des mises à jour. La série d'améliorations apportées par Cisco à son offre...

le 28/09/2023, par Michael Conney, IDg NS (adapté par Jean Elyan), 797 mots

Aruba Networks s'intéresse aux PME avec ses routeurs WiFi 6

La gamme Instant On de HPE Aruba vise à simplifier le déploiement et la gestion des réseaux (WIFi et filaire) pour les petites et moyennes entreprises. Le point d'accès et le commutateur annoncés par la...

le 26/09/2023, par Michael Cooney, IDG NS (adapté par Jean Elyan), 445 mots

Les applications d'IA, de sécurité et de mise en réseau poussent à...

Les commutateurs intelligents smartswitchs, comme le switch CX 10000 d'Aruba, stimulent l'utilisation des DPU dans les entreprises. Parce qu'elles exigent des performances système accrues, les applications...

le 12/09/2023, par Michael Conney, IDg NS (adapté par Jean Elyan), 1654 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Céline Polo

DRH du groupe iliad

"Nous recrutons dans des métiers en tension, en particulier sur l'infrastructure réseau, pour lesquels il y a...