¿Cómo configurar opciones personalizadas de ceph OSD en ceph-ansible?

¿Cómo configurar opciones personalizadas de ceph OSD en ceph-ansible?

Actualmente estoy implementando un clúster ceph en algunas máquinas basadas en ARM, a saber, elHC2 de ODROIDequipado con discos WD Red de 4 TB. También encontré un artículo delaboratorios WD, haciendo la misma tarea a gran escala (504 OSD), sugiriendo ajustar la configuración de OSD con

osd map cache size = 40
osd map max advance = 32
osd map message max = 32

Ahora me pregunto (no solo por esas opciones), cómo ponerlas en ansible group_vars o host vars, para acomodar los recursos relativamente bajos en los HC2.

Actualmente creo que no es posible con los manuales de estrategia ceph-ansible actuales.

Realmente agradecería que alguien pudiera darme alguna pista al respecto. ceph-ansible no parece utilizar realmente archivos de plantilla para la configuración (solo como marcadores de posición), entonces, ¿cómo podría ampliarse o modificarse para que estas configuraciones sean posibles?

Respuesta1

Esto es posible con el ceph_conf_overridesparámetro (http://docs.ceph.com/ceph-ansible/master/#ceph-conf-configuration).

ceph_conf_overrides:
  osd:
    osd map cache size: 40
    osd map max advance: 32
    osd map message max: 32

información relacionada