これは、Cybernetics miSAN D iSCSI SAN から VM を実行する ESXi 4.0 の新しいセットアップです。
VM で高データ読み取りテストを実行したところ、8 分かかりましたが、VM がローカル ディスクにある低速の VMWare Server 1.0 ホストにある同じ VM では 1.5 分でした。SAN からの読み取り速度を監視していますが、最大読み取り速度は 3MB/秒を超えており、VM のディスク使用量も 3MB/秒を超えています... 非常に遅いです。
サーバーとSANは両方とも同じ1GBスイッチに接続されています。私はこのガイドに従いました
virtualgeek.typepad.com/virtual_geek/2009/09/a-multivendor-post-on-using-iscsi-w ith-vmware-vsphere.html
マルチパス設定を適切に行うようにしましたが、VM のパフォーマンスがまだ良くありません。SAN とネットワークは 100 MB/秒以上を処理できるはずだとわかっていますが、それができません。SAN に 2 つの GB NIC があり、ESXi ホストの 2 つの GB NIC にマルチパス接続されています。VMkernel ごとに 1 つの NIC。速度を向上させるために他に確認したり実行したりできることはありますか? ヒントがあればよろしくお願いします。
答え1
この SAN ハードウェアは VMware 認定を受けているため、サポートに問い合わせて調査してもらってください。パフォーマンスが低下する一般的な原因は、SAN ハードウェアのインターフェイスが過負荷になることです。同じ SAN に複数の接続がある場合、すべてを最大速度で処理することはできないためです。
また、SATA ディスクでも最大 3Gb/s の帯域幅しかないため、セットアップではローカル ディスクが常に SAN よりも高速になり、SAN がローカル ディスクの速度に匹敵することはありません。また、ファイバーの代わりにイーサネットを使用している可能性もありますが、これもパフォーマンスの向上には役立ちません。
SAN を使用するのは、速度のためだけではなく、すべての重要なデータを保存し、適切な RAID レベルが適用されていることを確認できる集中管理された場所を確保するためです。また、SAN の利点の 1 つであるレプリケーションなどの特定の機能もあります。
答え2
このセットアップでは、妥当なパフォーマンスを実現できるはずです。また、私が収集した情報によると、このアレイは、小さなブロックのランダム IO でも 1 秒あたり約 60 ~ 70 メガバイトを維持できます。私はこれらのアレイを使用した経験はありませんが、仕様では、要件を簡単に処理できるはずであり、検索で表示されるいくつかのレビューもそれを裏付けています。
とにかく、私ならまず少し後退します。マルチパスを(最初に)取り除き、(VMware 側で)単一のパスで十分なパフォーマンスを維持できるようにします。8 台のドライブ ユニットがあり、10k SAS ドライブがフル装備され、ホット スペアが 1 つあり、7 台のドライブ RAID 5 パックがあると仮定すると、すべての ip\tcp および iSCSI オーバーヘッドを考慮しても、優れた専用 Gbit LAN 上の単一のインターフェイスを介して、100Meg/秒を超えるシーケンシャル読み取りまたは書き込みを簡単に実現できるはずです。SAN との間で大きなファイル コピー(アレイの書き込みキャッシュよりもかなり大きいもの)の簡単な一括テストを実行して、それが実現されているかどうかを確認します。ちなみに、SAN ボリュームに読み取りと書き込みを行っている場合、パフォーマンスはその半分以下になります。そうでない場合は、通常考えられる原因をすべて調べる必要があります。
- まず、SANのキャッシュが正しく設定されていることを確認してください。
- すべてのドライブが正常であることを確認してください。つまり、RAIDの再構築に苦労していないことを確認してください。
- スイッチが正常であり、他の処理でビジー状態になっていないことを確認します。理想的には、SAN トラフィックを専用のスイッチに分離する必要がありますが、それができない場合は、専用の VLAN に配置します。
- 他の処理で非常に忙しい安価なスイッチには絶対に設置しないでください。
- すべてのポート(ESX、スイッチ、SAN)のデュプレックスと速度設定を確認します。
- 他のすべてが機能していることを確認するまで、ジャンボフレームとESXをいじらないでください。
- スイッチのハードウェアフロー制御を必ず有効にする
テスト中は、ESX ホストまたは SAN が他の処理でビジー状態になっていないことを確認してください。
単一のアップリンクでシーケンシャル トラフィックが 100Meg/秒以上になることに成功したら、マルチパス化によって違いが出るかどうかを検討できます。ESX4 の iSCSI では違いが出る可能性があります。ただし、ストレージ アレイが ESX 4 と組み合わせて正しくサポートしていない限り、違いが出る可能性は低いです。この点については、アレイ ベンダーに問い合わせてください。
答え3
マルチパスが問題の原因である可能性があります。マルチパスを無効にして、SAN への接続を 1 つの 1Gb にすることはできますか? また、試しましたか? VMware は、リンク不良やパケット配信の遅延により、負荷がかかったときにパス スラッシングが発生する可能性があります...
ちなみに、1Gb リンクでの最大スループットは、そのリンク上のデバイスが SAN と ESXi ホストの 2 つだけの場合、約 30MBytes/秒になります...
答え4
VMware のネイティブ マルチパス IO ドライバー (MPIO) はアクティブ/パッシブのみであるため、LUN ごとに 1 つのパスのみを使用することに注意してください。したがって、すべてのトラフィックが単一の LUN に送信される場合は、そのトラフィックをそこに送信するために 1 つのパスのみを使用します。サポートされている唯一のサード パーティ MPIO ドライバー (私が知る限り) は、アクティブ/アクティブ MPIO ドライバーである EMC の PowerPath ですが、vSphere の Enterprise Plus エディションが必要です。
注目すべき点がいくつかあります。
SAN、スイッチ、ホストでジャンボ フレームを有効にしましたか? SAN の監視ツールでパフォーマンスの問題が表示されていますか? 問題の LUN の背後にディスクがいくつありますか? 同じディスクに他のものがどれだけアクセスしていますか?