Как настроить пользовательские параметры OSD ceph в ceph-ansible?

Как настроить пользовательские параметры OSD ceph в ceph-ansible?

В настоящее время я развертываю кластер ceph на нескольких машинах на базе ARM, а именно:HC2 от ODROIDоборудован 4 ТБ WD Red Drives. Я также нашел статью отЛаборатории WD, выполняя ту же задачу в большом масштабе (504 OSD), предлагая настроить параметры OSD с помощью

osd map cache size = 40
osd map max advance = 32
osd map message max = 32

Теперь мне интересно (и не только для этих опций), как поместить их в ansible group_vars или host vars, чтобы приспособиться к относительно низким ресурсам на HC2.

На данный момент я считаю, что это невозможно с текущими сценариями Ceph-Ansible.

Я был бы очень признателен, если бы кто-нибудь мог дать мне подсказку по этому поводу. Похоже, ceph-ansible на самом деле не использует файлы шаблонов для конфигурации (только в качестве заполнителей), так как же его можно расширить или настроить, чтобы сделать эти настройки возможными?

решение1

Это возможно с ceph_conf_overridesпараметром (http://docs.ceph.com/ceph-ansible/master/#ceph-conf-configuration).

ceph_conf_overrides:
  osd:
    osd map cache size: 40
    osd map max advance: 32
    osd map message max: 32

Связанный контент