IOMeter でベンチマークを行っていますが、VMWare 環境で最初のテストを実行した後、パフォーマンスが一貫して大幅に低下していることがわかりました。これらの低下は、テストした 3 つの VM でほぼ同じであるため、構成設定または VM に関する何かが原因と考えられます。
たとえば、あるシステム (ローカル RAID 10) では、最初の実行では 1 秒あたり 388 回の I/O でしたが、その後は毎回実行して 1 秒あたり約 211 回の I/O になりました。テストのその他の部分はすべて同じで、実行の合間にマシンをバウンスしました。非仮想化環境でのローカル マシンでのテストは一貫性はありますが、ローカル VM でテストすると、最初の実行後にパフォーマンスが低下します。
検討すべき説明や提案はありますか?
答え1
テストに VM ドライブ全体を使用していますか? 新しい VM でテストを実行すると、割り当てられたデータがない状態から開始されます。テストで書き込みのために削除する必要のあるものは何もありません。後続のテストでは、削除してから書き込む必要がある可能性が高く、2 番目のテストが遅くなります。
答え2
私は EMC でハード ドライブのパフォーマンス テストを行っています。HDD または SSD のパフォーマンス テストを実行する前に、iometer を使用してドライブの「ダーティ ビット」と呼ばれる処理を実行します。もちろん、初期化したばかりの新品のドライブはより高速に動作します。これらのドライブのビットはいずれもアクセスされていないため、すべてがゼロにリセットされ、パフォーマンスの結果が向上します。新しく初期化されたドライブに偏りのない結果を得るために、ビットはダーティにされ、パフォーマンス テストはアイドル時間なしですぐに実行されます (アイドル時間中、VD は通常、ダーティ ビットをすべてクリアする「ガベージ コレクション」のような処理を実行します [これがテストを実行する理由です。最初の実行は常に良好で、残りのテストが実行された後、アイドル時間が発生してドライブがクリアされ、すべてが正常に戻り、ループが継続されます])。
1 回のテストで 1 つのワーカーで 512 の読み取りを 1 時間実行し、次にワーカー 1 - 1024 の読み取り、ワーカー 2 - 2048 の読み取り、ワーカー 3 - 4096 の読み取りを 5 時間実行します。これら 2 つのテストを連続して実行すると、事前にビットをダーティにする方法がわかります。
[1 TB を超える RAID 5 の場合は、テストを 24 時間以上実行するように調整する必要がある場合があります (つまり、テスト 1 を 4 時間、テスト 2 を 20 時間)
Iometerの結果を視覚化/解析するのに役立つものを教えていただけませんか?メールでお問い合わせください