
現在、私はいくつかのARMベースのマシンにCephクラスタを展開しています。ODROIDのHC24TBのWD Redドライブを搭載しています。また、WDラボ、同じタスクを大規模(504 OSD)で実行し、OSD設定を調整することを提案します。
osd map cache size = 40
osd map max advance = 32
osd map message max = 32
今、私は(そのオプションだけではなく)、HC2 上の比較的低いリソースに対応するために、それらを ansible group_vars または host vars にどのように配置するかを考えています。
現時点では、現在の ceph-ansible プレイブックでは不可能だと考えています。
どなたかヒントをいただければ幸いです。ceph-ansible は設定にテンプレート ファイルを実際には使用していないようです (プレースホルダーとしてのみ)。そのため、これらの設定を可能にするために、どのように拡張または調整すればよいのでしょうか。
答え1
これはパラメータceph_conf_overrides
(http://docs.ceph.com/ceph-ansible/master/#ceph-conf-configuration)。
ceph_conf_overrides:
osd:
osd map cache size: 40
osd map max advance: 32
osd map message max: 32