Ich hatte einen Netzwerkadapter mit einer Geschwindigkeit von 20 Gbit/s. Indem ich diesen Adapter mit einem der Benchmarking-Tools (netperf ist das Tool, das ich verwendet habe) belastete, konnte ich ~18 Gbit/s erreichen, was gut akzeptiert wird.
Nachdem ich nun einen weiteren Adapter mit der gleichen Geschwindigkeit (also 20 Gbit/s) installiert und beide Adapter mit dem Benchmarking-Tool belastet hatte, hatte ich mit ~36 bis ~38 Gbit/s gerechnet. Aber ich konnte immer noch die gleichen ~18 Gbit/s erreichen.
Bedeutet dies, dass der Durchsatz unter Berücksichtigung des durchschnittlichen Datenverkehrs auf beiden physischen Adaptern berechnet wird und die Werte nicht addiert werden und nie die Grenze der Verbindungsgeschwindigkeit eines einzelnen Adapters überschritten wird?
PS: Das Setup sieht ungefähr so aus. Insgesamt 32 Netperf-Sitzungen mit ausreichend großer Socket-Puffergröße und Nachrichtengrößen bei Sende-/Empfangsaufrufen, die 256 KB bzw. 16 KB betragen. Jeder Adapter wird von 16 Sitzungen gleichzeitig verwendet.
Antwort1
Aus dem Netperf-Handbuch:
Netperf basiert auf einem grundlegenden Client-Server-Modell. – –
Sobald die Steuerverbindung hergestellt ist und die Konfigurationsinformationen übermittelt wurden, wird für die Messung selbst eine separate „Daten“-Verbindung geöffnet. Dabei werden die für den angegebenen Test geeigneten APIs und Protokolle verwendet.
Da der Durchsatz zwischen Client und Server getestet wird, ist dies von dieser Verbindung abhängig. Um die beiden Adapter gemeinsam zu testen, sollten sie so lastausgeglichen werden, dass beide Adapter für eine einzelne Verbindung genutzt werden. Für alles andere als dieses Benchmarking wäre dies wahrscheinlich keine sehr nützliche Konfiguration.