Synchronisation et latence

Dossier par Jim Duffy, adaptation Didier Barathon, 412 mots

Dans cet upgrade de réseau, du 10G au 40 ou au 100 G Ethernet, plusieurs facteurs doivent être examinés. Les utilisateurs n'en sont pas toujours conscients.

Synchronisation et latence

Premier point à prendre en compte, la synchronisation des horloges des commutateurs qui permet d'obtenir une meilleure vitesse, surtout dans les parcs hétérogènes. Il faut également s'assurer que la latence reste à des niveaux acceptables, en gardant la conception optimale du réseau et de l'architecture pour 40/100G et en veillant à ce que l'infrastructure de câblage existante réponde effectivement à l'augmentation par 4 ou par 10 de la bande passante.

L'une des mises en garde dont les utilisateurs ne sont pas conscients, pour leur migration à partir du 10G au 40/100G Ethernet, c'est la nécessité d'assurer une synchronisation précise des horloges entre différents systèmes, en particulier entre les équipements de ces différents systèmes. Des cadencements imprécis entre les systèmes à 40/100 G, même à 10G, peut augmenter la latence et la perte de paquets.

Le problème de la latence est l'un de ceux que la plupart des gens savent anticiper, estiment les experts du secteur. Le 10G, surtout à haute densité, offre la plus petite différence entre les horloges des différents ports susceptible d'entraîner une forte latence et une perte de paquets. Avec le 40G, on passe à des ordres de grandeur plus importants que ceux du 10G.

RDMA présente un faible temps de latence

C'est une exigence essentielle dans les datacenters  d'aujourd'hui, parce  que nombre d'innovations récentes, ne répondent qu'à des latences inférieures.  « Là où vous rencontrerez les plus grands défis c'est avec différentes configurations  de latence,  si RDMA (remote direct memory access) est utilisé » nous explique Shaun Walsh, vice-président senior chargé du marketing et du développement des entreprises chez Emulex. RDMA présente un faible temps de latence, une capacité de transfert de données à haut débit, dans laquelle la mémoire de l'application est échangée directement vers et à partir des adaptateurs réseau, sans le copier dans l'exploitation tampon du système.

«Vous voyez beaucoup plus une commutation virtuelle en rack, la commutation basée sur des VM passant  par des applications spécifiques » explique Shaun Walsh. « De nouvelles cartes en ligne dans de nouvelles architectures de fond de panier signifient différents niveaux de sur-souscription. Il y a aura des réglages de génération à effectuer, des configurations préoccupantes vont surgir. La plus grande chose en matière de tests en cours d'exécution est de s'assurer que vous obtenez les 40G que vous payez par rapport aux problèmes de latences, de congestion et de visibilité rencontrés. »

Sommaire du dossier