
当社には、4 つの NIC、2 つの外部スイッチ (Switch 1 と Switch 2)、および多数の「小型」サーバーを備えた CentOS7 または RedHat 7 の「大型」HP Proliant DL360 Gen 9 サーバーが 1 台あります。
これらの小型サーバーには 2 つの NIC があり、これらの NIC は各 NIC を介してまったく同じトラフィックを異なるスイッチに送信します。NIC1 はスイッチ 1 に接続され、NIC2 はスイッチ 2 に接続されます。そのため、小型サーバーで冗長性が確保されます。各サーバーは 2 つのスイッチを介して 1 つの「BIG」サーバーに同じトラフィックを送信します。
BIG サーバーでチーミングを使用して、次のような構成を作成できるかどうかを理解しようとしました。
NIC1 と NIC2 はチーム 1 で、2 Gbps の帯域幅には 2 つの NIC が必要です。NIC3 と NIC4 はチーム 2 で、ここではまったく同じミラーリングされた 2 Gbps トラフィックです...
各チームのトラフィックは同じです。そのため、何らかの方法で (どのように?) 初期のアクティブ チームを「知る」か、あるいは定義する必要があります。たとえば、スイッチ 1 が故障した場合、またはケーブル/NIC が動作を停止した場合、ケーブルがコネクタから取り外されても障害が発生した場合は、別のチームに切り替える必要があります。
BIG サーバー上のアプリケーションは、どのチームがアクティブでどのチームがパッシブであるかに関係なく、常に 1 つの静的 IP のみを確認したいため、これに気付くことはありません。
質問です。上で説明したように「チーミング」を使用して BIG を構成することは可能でしょうか。それとも、高可用性のサードパーティ製ソフトウェアを購入する必要がありますか。
ご清聴ありがとうございました :-)
答え1
いいえ、ボンドをボンディングすることはできません。LACP を使用して、2 つのスイッチ間でボンドをフェイルオーバーすることは可能です。
私の回答はこちらをご覧ください:
https://unix.stackexchange.com/questions/82569/bonds-vs-aggregators/172232#172232
https://unix.stackexchange.com/questions/81633/rhel-5-complex-port-bonding/168545#168545