
目前我正在幾台基於 ARM 的機器上部署 ceph 集群,即ODROID 的 HC2配備 4 TB WD 紅色硬碟。我還找到了一篇文章西部數據實驗室,大規模執行相同的任務(504 個 OSD),建議調整 OSD 設置
osd map cache size = 40
osd map max advance = 32
osd map message max = 32
現在我想知道(不僅僅是這些選項),如何將它們放入 ansible group_vars 或主機變數中,以適應 HC2 上相對較低的資源。
目前我認為,目前的 ceph-ansible 劇本是不可能的。
如果有人能給我一些提示,我將非常感激。 ceph-ansible 似乎並沒有真正使用模板檔案進行配置(僅作為佔位符),那麼如何擴展或調整它以使這些設定成為可能?
答案1
這可以透過參數ceph_conf_overrides
(http://docs.ceph.com/ceph-ansible/master/#ceph-conf-configuration)。
ceph_conf_overrides:
osd:
osd map cache size: 40
osd map max advance: 32
osd map message max: 32