如何在 ceph-ansible 中設定自訂 ceph OSD 選項?

如何在 ceph-ansible 中設定自訂 ceph OSD 選項?

目前我正在幾台基於 ARM 的機器上部署 ceph 集群,即ODROID 的 HC2配備 4 TB WD 紅色硬碟。我還找到了一篇文章西部數據實驗室,大規模執行相同的任務(504 個 OSD),建議調整 OSD 設置

osd map cache size = 40
osd map max advance = 32
osd map message max = 32

現在我想知道(不僅僅是這些選項),如何將它們放入 ansible group_vars 或主機變數中,以適應 HC2 上相對較低的資源。

目前我認為,目前的 ceph-ansible 劇本是不可能的。

如果有人能給我一些提示,我將非常感激。 ceph-ansible 似乎並沒有真正使用模板檔案進行配置(僅作為佔位符),那麼如何擴展或調整它以使這些設定成為可能?

答案1

這可以透過參數ceph_conf_overrides(http://docs.ceph.com/ceph-ansible/master/#ceph-conf-configuration)。

ceph_conf_overrides:
  osd:
    osd map cache size: 40
    osd map max advance: 32
    osd map message max: 32

相關內容