IOPS設計瓶頸?

IOPS設計瓶頸?

我正在建造一個 45 個驅動器 (backblaze) 儲存盒,用於 Windows 2012 R2 儲存空間。規格為 2xE5-2620 v2 cpu、32 GB 記憶體、3xLSI 9201-16i 卡、9x1 TB SATA SSD 和 36x4TB HGST ultrastar SATA 硬碟。假設讀/寫率為 50/50,驅動器的原始資料為 840,000 IOPS。 LSI 卡每張卡可處理 400k+ iops。假設我將驅動器放入 3 路鏡像中,我將擁有 48 TB 的磁存儲,並使用 SSD 作為分層存儲。這樣一個系統的瓶頸是什麼?是 RAM、CPU、LSI 卡還是驅動器本身?我們會看到 IOPS 接近理論最大值的 50% 嗎?

答案1

這實際上取決於您將使用系統做什麼。這是一般性建議; Windows 儲存空間解決方案與 ZFS 和傳統檔案系統的情況相同。

像這樣思考:

  • 您正在使用一堆容量優化的磁碟,因此無論您在做什麼,似乎都涉及大量資料。
  • 當人們談論大型資料集時,應用程式通常是備份或活動的應用程式工作集資料只是磁碟上資料的子集。
  • 如果目的是備份,為什麼特定的 IOPS 很重要?
  • 如果目的是具有相對較小工作集的其他應用程序,我假設它可以在 SSD 快取層處理。
  • 如果隨機讀/寫效能很重要,那麼這是錯誤的解決方案。
  • 如何將資料傳入和傳出伺服器?如果有什麼,將會是你的嘗試瓶頸。
  • 幸運的是,高階檔案系統不需要太多的 CPU 能力。您的 CPU 是我通常在 ZFS 儲存系統中指定的 CPU。您可能需要更多 RAM,但我不知道 WSS 如何利用實體記憶體的具體細節。

事實上,您的問題可能是SATA 磁碟逾時、驅動器故障、控制器問題(韌體)、電源和冷卻、振動...以及。我們在這裡很少聽說 Windows 儲存空間,所以我的猜測是業界的關注度很低。

為什麼我可以這麼說呢?我必須管理 Backblaze 單位並且個人擁有一台 Sun x4540充滿SATA磁碟()。即使使用所有這些磁碟,此設定實際上也只適合順序和串流工作負載。

相關內容