4X10GB ボンディング NIC - スループットは 4~5GB のみ

4X10GB ボンディング NIC - スループットは 4~5GB のみ

私は2つを持っていますHPBL685c G6 ブレードサーバーUbuntu 15.04を実行

4 つの 10 GB NIC をそれぞれ個別に構成すると、iperf を使用してテストでき、各 NIC に対してサーバー間で約 10 Gbit/秒の帯域幅が得られます。これは期待どおりに動作します。

現在、各サーバーの 10GB NIC すべてをボンディングモード「balance-rr」を使用してボンディングしようとしています。結果はさまざまですが、2.5Gbits/秒から 5Gbits/秒の間になります。

私は同じ構成を使用して、同じサーバーで2X1GB NICを結合しています。2X1GB NICを結合すると、iperfでテストしたときに約2Gbit/秒の帯域幅が得られます。これらの2つのNICはVirtual Connect Domainに接続されておらず、それぞれ異なるCisco Catalyst ブレード スイッチ 3120

そこで、私の質問は、balance-rr を使用して 4X10GB NIC をボンディングすると、単一の NIC を使用する場合よりもパフォーマンスが低下するのはなぜかということです。TCP/ボンディングのオーバーヘッドを差し引いた帯域幅が約 40Gbit/秒になると予想していましたが、これは、テスト時に 2X1GB をボンディングして約 2GB を取得したときの結果と一致します。

私はこれをさまざまなボンディング モードで試しましたが、他のモードではボンディング時に約 10Gbit/秒の帯域幅が得られました。まだ理想的ではありませんが、balance-rr の結果よりは優れています。

答え1

Virtual Connect モジュールは、Linux 展開ではボンド モード 0 (balance-rr) をサポートしていないようです。

HP サポートより:http://h20564.www2.hp.com/hpsc/doc/public/display?docId=emr_na-c02957870

情報 HP Virtual Connect 環境でサポートされていないボンディング モードを使用すると、パケット損失やパフォーマンスの問題が発生する可能性があります。

詳細 HP Virtual Connect は、ボンディング モード 1、5、または 6 をサポートします。VC は、モード 0 (ラウンド ロビン) または 7 (スイッチ アシスト ロード バランシング) をサポートしません。

モード1:アクティブ/バックアップ。アクティブ/バックアップ ポリシー: ボンド内の 1 つのスレーブのみがアクティブになります。アクティブなスレーブに障害が発生した場合のみ、別のスレーブがアクティブになります。ボンドの MAC アドレスは、スイッチの混乱を避けるために、1 つのポート (ネットワーク アダプタ) でのみ外部から参照できます。

モード5:適応型送信負荷分散: 特別なスイッチ サポートを必要としないチャネル ボンディング。送信トラフィックは、各スレーブの現在の負荷 (速度に応じて計算) に応じて分散されます。受信トラフィックは現在のスレーブによって受信されます。受信スレーブに障害が発生した場合、別のスレーブが障害が発生した受信スレーブの MAC アドレスを引き継ぎます。

モード6:適応型負荷分散: IPV4 トラフィック用の balance-tlb と受信負荷分散 (rlb) が含まれており、特別なスイッチ サポートは必要ありません。受信負荷分散は ARP ネゴシエーションによって実現されます。

関連情報