Le terme latence fait référence à plusieurs types de retards généralement encourus dans le traitement des données du réseau. Une connexion réseau à faible latence subit de petits retards, tandis qu'une connexion à latence élevée subit de longs retards.
Outre les délais de propagation, la latence peut également impliquer des délais de transmission (propriétés du support physique) et des délais de traitement (comme le passage par des serveurs proxy ou des sauts de réseau sur Internet).
Latence et vitesse du réseau
Bien que la perception de la vitesse et des performances du réseau soit généralement comprise comme la bande passante, la latence est l'autre élément clé. La personne moyenne est plus familière avec le concept de bande passante parce que c'est la mesure que les fabricants d'équipements de réseau annoncent généralement. Pourtant, la latence est tout aussi importante pour l'expérience de l'utilisateur final. En termes d'argot, le mot décalage fait souvent référence à des performances inférieures sur un réseau.
Latence versus débit
Sur les connexions Internet DSL et par câble, des latences inférieures à 100 millisecondes (ms) sont typiques et inférieures à 25 ms sont souvent possibles. Avec les connexions Internet par satellite, en revanche, les latences typiques peuvent être de 500 ms ou plus.
Une latence excessive crée des goulots d'étranglement qui empêchent les données de remplir le canal du réseau, diminuant ainsi le débit et limitant la bande passante efficace maximale d'une connexion. L'impact de la latence sur le débit du réseau peut être temporaire (quelques secondes) ou persistant (constant), selon la source des retards.
Bien que la bande passante maximale théorique d'une connexion réseau soit fixée en fonction de la technologie utilisée, la quantité réelle de données qui circule sur le réseau (appelée débit) varie dans le temps et est affectée par des latences plus ou moins élevées.
Latence des services Internet
Un service Internet évalué à 100 Mbps peut fonctionner nettement moins bien qu'un service évalué à 20 Mbps s'il fonctionne avec une latence élevée.
Le service Internet par satellite illustre la différence entre la latence et la bande passante sur les réseaux informatiques. Le satellite possède à la fois une bande passante élevée et une latence élevée. Lors du chargement d'une page Web, par exemple, la plupart des utilisateurs de satellites observent un délai notable entre le moment où ils saisissent l'adresse et le moment où la page commence à se charger.
Cette latence élevée est principalement due au délai de propagation, car le message de requête se déplace à la vitesse de la lumière vers la station satellite distante et revient vers le réseau domestique. Cependant, une fois que les messages arrivent sur Terre, la page se charge rapidement, comme sur d'autres connexions Internet à haut débit (telles que l'Internet par câble et DSL).
Latence des logiciels et des appareils
La latence WAN se produit lorsque le réseau est occupé à gérer le trafic au point que d'autres requêtes sont retardées car le matériel ne peut pas tout gérer à des vitesses maximales. Cela affecte également le réseau câblé, car l'ensemble du réseau fonctionne ensemble.
Une erreur ou un autre problème avec le matériel peut augmenter le temps nécessaire au matériel pour lire les données, ce qui est une autre raison de la latence. Cela peut être le cas pour le matériel réseau ou le matériel de l'appareil, comme un disque dur lent qui prend du temps pour stocker ou récupérer des données.
Le logiciel en cours d'exécution sur le système peut également entraîner une latence. Certains programmes antivirus analysent toutes les données qui entrent et sortent de l'ordinateur, c'est pourquoi certains ordinateurs protégés sont plus lents que leurs homologues. Les données analysées sont souvent déchirées et scannées avant d'être utilisables.
Mesurer la latence du réseau
Les outils réseau tels que les tests ping et traceroute mesurent la latence en déterminant le temps nécessaire à un paquet réseau donné pour voyager de la source à la destination et vice-versa, appelé temps aller-retour. Le temps d'aller-retour est une mesure de la latence, et c'est la plus courante. Les fonctionnalités de qualité de service (QoS) des réseaux domestiques et professionnels sont conçues pour gérer la bande passante et la latence afin de fournir des performances plus cohérentes.