Ceph OSD 的 RAID-0 條帶大小

Ceph OSD 的 RAID-0 條帶大小

我有 3 台伺服器,將用於新的 Ceph 叢集。這是我的第一個Ceph“遊樂場”...每台伺服器都有2x1TB 和6x2TB HDD,連接到兩個獨立的4 通道SAS 控制器,每個控制器都有1GB 快取+ BBU,因此我計劃優化它們的吞吐量。

前兩個磁碟將用作作業系統和可能的日誌的 RAID-1 陣列(仍在研究中)。

驅動器 3 至 8 將作為單獨的 RAID-0 裝置公開,以便利用控制器快取。然而,我對最佳的牛肚尺寸感到困惑,因為我以後無法在不丟失資料的情況下更改它,所以我決定在這裡詢問。有人可以解釋一下嗎?控制器 (LSI 9271-4i) 的預設值為 256k。我看到一些文件提到stripe width(例如這裡)預設為 64kb,但我仍然不確定。有趣的是,沒有關於這個話題的討論。也許是因為很多人在 JBOD 模式下運行此類設置,或者因為它並不那麼重要...

由於這將是我的第一個集群,我將嘗試盡可能堅持預設。

答案1

一年前,我們做了同樣的決定。根據本文在某些情況下,使用 RAID 0 可能會提高效能。根據CEPH硬碟和FS建議,建議停用硬碟磁碟快取。所以我認為這兩篇文章的要點是:最好使用 JBOD 並禁用硬碟的寫入快取。

答案2

MaksaSila 大部分是正確的,但有些誤解。驅動器快取本身應該禁用寫入緩存,因為它沒有電池支援。使用電池支援的 SAS 控制器進行 RAID0 寫入快取是可以的,並且有助於提高效能,這與驅動器自己的內部寫入快取不同(我同意應該禁用它)。

相關內容