Ich habe zweiHPBL685c G6 Blade-Servermit Ubuntu 15.04
- Jeder Server verfügt über 4 x 10 GB NIC
- 2x10GB NIC sind an einen einzigenVirtualConnect 10/10G Ethernet-Modul
- Die anderen 2x10GB NIC sind mit einem zweiten verbundenVirtualConnect 10/10G Ethernet-Modul
- Virtuelle Verbindungsmodule sind für horizontales Stapeln konfiguriert und befinden sich in den Verbindungsschächten 1 und 2
- Die referenzierten NICs sind alleeingebettete Flex-10-Adapter
Wenn ich jede der 4 10-GB-NICs separat konfiguriere, kann ich mit iperf testen und erhalte für jede NIC eine Bandbreite von ca. 10 Gbit/s zwischen den Servern. Das funktioniert wie erwartet.
- Server 1:http://d.pr/n/15dA5
- Server 2:http://d.pr/n/10pqJ
- iperf-Ergebnisse:http://d.pr/i/pscUUndhttp://d.pr/i/zh2E
Jetzt versuche ich, alle 10 GB NICs auf jedem Server zu bündeln, indem ich den Bündelmodus „balance-rr“ verwende. Die Ergebnisse variieren, liegen aber irgendwo zwischen 2,5 Gbit/s und 5 Gbit/s
- Server 1:http://d.pr/n/1aTei
- Server 2:http://d.pr/n/12Mqy
- iperf-Ergebnisse:http://d.pr/i/1cvh0Undhttp://d.pr/i/1eOgU
Ich verwende dieselbe Konfiguration, um 2 x 1 GB NIC auf denselben Servern zu verbinden. 2 x 1 GB NIC verbunden ergibt beim Test mit iperf eine Bandbreite von ~2 Gbit/s. Diese beiden NICs sind nicht mit einer Virtual Connect Domain verbunden, sondern sind jeweils mit einer anderen verbunden.Cisco Catalyst Blade-Switch 3120
- Server 1:http://d.pr/n/1kk4f
- Server 2:http://d.pr/n/fbVJ
- iperf-Ergebnisse:http://d.pr/i/10N4qUndhttp://d.pr/i/1a0z3
Meine Frage ist also: Warum führt das Verbinden von 4 x 10 GB NICs mit Balance-RR zu einer geringeren Leistung als die Verwendung einer einzelnen NIC? Ich hätte eine Bandbreite von ca. 40 Gbit/s abzüglich TCP/Bonding-Overhead erwartet, was mit meinen Ergebnissen beim Verbinden von 2 x 1 GB und dem Erreichen von ca. 2 GB beim Testen übereinstimmt.
Ich habe dies mit verschiedenen Bonding-Modi versucht und die anderen führen bei Bonding zu einer Bandbreite von ca. 10 Gbit/s. Immer noch nicht ideal, aber besser als die Balance-RR-Ergebnisse.
Antwort1
Es scheint, dass die Virtual Connect-Module den Bond-Modus 0 (Balance-RR) in Linux-Bereitstellungen nicht unterstützen.
Vom HP-Support:http://h20564.www2.hp.com/hpsc/doc/public/display?docId=emr_na-c02957870
Information Nicht unterstützte Bonding-Modi in einer HP Virtual Connect-Umgebung können zu Paketverlusten und/oder Leistungsproblemen führen.
Einzelheiten HP Virtual Connect unterstützt die Bonding-Modi 1, 5 oder 6. VC unterstützt nicht die Modi 0 (Round Robin) oder 7 (Switch-unterstütztes Lastenausgleich).
Modus 1:Aktiv/Backup. Aktiv-Backup-Richtlinie: Nur ein Slave im Verbund ist aktiv. Ein anderer Slave wird aktiv, wenn und nur wenn der aktive Slave ausfällt. Die MAC-Adresse des Verbunds ist extern nur an einem Port (Netzwerkadapter) sichtbar, um den Switch nicht zu verwirren.
Modus 5:Adaptives Sende-Load-Balancing: Kanalbündelung, die keine spezielle Switch-Unterstützung erfordert. Der ausgehende Verkehr wird entsprechend der aktuellen Last (berechnet relativ zur Geschwindigkeit) auf jeden Slave verteilt. Eingehender Verkehr wird vom aktuellen Slave empfangen. Fällt der empfangende Slave aus, übernimmt ein anderer Slave die MAC-Adresse des ausgefallenen empfangenden Slaves.
Modus 6:Adaptiver Lastenausgleich: beinhaltet Balance-TLB plus Empfangslastenausgleich (RLB) für IPV4-Verkehr und erfordert keine spezielle Switch-Unterstützung. Der Empfangslastenausgleich wird durch ARP-Aushandlung erreicht.