ceph-ansible でカスタム ceph OSD オプションを構成する方法は?

ceph-ansible でカスタム ceph OSD オプションを構成する方法は?

現在、私はいくつかのARMベースのマシンにCephクラスタを展開しています。ODROIDのHC24TBのWD Redドライブを搭載しています。また、WDラボ、同じタスクを大規模(504 OSD)で実行し、OSD設定を調整することを提案します。

osd map cache size = 40
osd map max advance = 32
osd map message max = 32

今、私は(そのオプションだけではなく)、HC2 上の比較的低いリソースに対応するために、それらを ansible group_vars または host vars にどのように配置するかを考えています。

現時点では、現在の ceph-ansible プレイブックでは不可能だと考えています。

どなたかヒントをいただければ幸いです。ceph-ansible は設定にテンプレート ファイルを実際には使用していないようです (プレースホルダーとしてのみ)。そのため、これらの設定を可能にするために、どのように拡張または調整すればよいのでしょうか。

答え1

これはパラメータceph_conf_overrideshttp://docs.ceph.com/ceph-ansible/master/#ceph-conf-configuration)。

ceph_conf_overrides:
  osd:
    osd map cache size: 40
    osd map max advance: 32
    osd map message max: 32

関連情報