我有兩個HPBL685c G6 刀鋒伺服器運行Ubuntu 15.04
- 每台伺服器有 4X10GB NIC
- 2x10GB NIC 連接到單一VirtualConnect 10/10G 乙太網路模組
- 其他 2x10GB NIC 連接到第二個VirtualConnect 10/10G 乙太網路模組
- 虛擬連接模組配置為水平堆疊,位於互連托架 1 和 2 中
- 所引用的網路卡都是嵌入式 Flex-10 適配器
當我分別配置 4 個 10GB NIC 中的每一個時,我可以使用 iperf 進行測試,並且每個 NIC 在伺服器之間接收約 10Gbit/sec 的頻寬。這按預期工作。
- 伺服器1:http://d.pr/n/15dA5
- 伺服器2:http://d.pr/n/10pqJ
- iperf 結果:http://d.pr/i/pscU和http://d.pr/i/zh2E
現在,我嘗試使用綁定模式「balance-rr」來綁定每台伺服器上的所有 10GB NIC。這些結果有所不同,但介於 2.5Gbits/sec 和 5Gbits/sec 之間
- 伺服器1:http://d.pr/n/1aTei
- 伺服器2:http://d.pr/n/12Mqy
- iperf 結果:http://d.pr/i/1cvh0和http://d.pr/i/1eOgU
我使用相同的配置在這些相同的伺服器上綁定 2X1GB NIC,在使用 iperf 進行測試時,2X1GB NIC 綁定的結果約為 2Gbit/sec 頻寬。這 2 個 NIC 未連接到 Virtual Connect 域,而是分別連接到不同的虛擬連接域思科 Catalyst 刀片交換器 3120
- 伺服器1:http://d.pr/n/1kk4f
- 伺服器2:http://d.pr/n/fbVJ
- iperf 結果:http://d.pr/i/10N4q和http://d.pr/i/1a0z3
所以,我的問題是:為什麼使用 Balance-rr 綁定 4X10GB NIC 會導致效能低於使用單一 NIC 的效能。我預計約 40Gbit/sec 頻寬減去 TCP/Bonding 開銷,這與我在測試時綁定 2X1GB 並獲得約 2GB 時的結果一致。
我已經嘗試過使用不同的綁定模式,其他模式在綁定時會產生約 10Gbit/sec 的頻寬。仍然不理想,但比balance-rr結果好。
答案1
Virtual Connect 模組似乎不支援 Linux 部署中的綁定模式 0 (balance-rr)。
來自惠普支援:http://h20564.www2.hp.com/hpsc/doc/public/display?docId=emr_na-c02957870
資訊 HP Virtual Connect 環境中不受支援的綁定模式可能會導致封包遺失和/或效能問題。
細節 HP Virtual Connect 支援綁定模式 1、5 或 6。
模式一:活動/備份。主動備份策略:綁定中只有一個從屬設備處於活動狀態。當且僅當活動從站發生故障時,另一個從站才會變成活動狀態。綁定的 MAC 位址僅在一個連接埠(網路適配器)上從外部可見,以避免混淆交換器。
模式5:自適應傳輸負載平衡:不需要任何特殊交換器支援的通道綁定。傳出流量根據每個從站上的當前負載(相對於速度計算)進行分配。傳入流量由目前從站接收。如果接收從站發生故障,另一個從站將接管發生故障的接收從站的 MAC 位址。
模式6:自適應負載平衡:包括 Balance-tlb 以及 IPV4 流量的接收負載平衡 (rlb),且不需要任何特殊交換器支援。接收負載平衡是透過ARP協商實現的。