Ich verwende tcpdump, um die Latenz auf einem Linux-Router zu messen, also die Verzögerung, die Pakete erfahren, wenn sie den Router (basierend auf Ubuntu 10) passieren. Zu diesem Zweck habe ich Pakete in den IN- und Out-Schnittstellen erfasst und ihren Protokollzeitstempel abgezogen, um die Latenz innerhalb des Routers zu ermitteln. Ich hatte eine Art flache Latenz erwartet, aber im Gegensatz dazu nahm die Latenz linear mit der Zeit zu. Ich habe iperf verwendet, um etwa 800.000 Pakete (mit einer Größe von 1500 Byte) durch den Router (mit zwei Gibabit-Links) zu senden.
Das Überraschende dabei ist, dass die Latenzzeit am Router zwar von etwa 20 Mikrosekunden auf 7 Millisekunden anstieg, der pro Sekunde gemessene durchschnittliche Durchsatz jedoch nahezu unverändert blieb.
Können Sie mir bitte mitteilen, warum die Latenz zugenommen hat? Möglicherweise liegt ein Problem bei der korrekten Aufzeichnung der Zeit für die Erfassung von OUT-Schnittstellenpaketen vor.
Vielen Dank im Voraus.