Wie konfiguriere ich benutzerdefinierte Ceph-OSD-Optionen in Ceph-Ansible?

Wie konfiguriere ich benutzerdefinierte Ceph-OSD-Optionen in Ceph-Ansible?

Derzeit installiere ich einen Ceph-Cluster auf einigen ARM-basierten Maschinen, nämlich demHC2 von ODROIDausgestattet mit 4 TB WD Red Drives. Ich fand auch einen Artikel vonWD-Labore, die die gleiche Aufgabe im großen Maßstab (504 OSDs) ausführen, was darauf hindeutet, die OSD-Einstellungen mit

osd map cache size = 40
osd map max advance = 32
osd map message max = 32

Jetzt frage ich mich (nicht nur wegen dieser Optionen), wie ich sie in die Ansible-Group_Vars oder Host-Vars einfügen kann, um den relativ geringen Ressourcen auf den HC2s gerecht zu werden.

Derzeit glaube ich, dass dies mit aktuellen Ceph-Ansible-Playbooks nicht möglich ist.

Ich wäre sehr dankbar, wenn mir jemand dazu einen Hinweis geben könnte. ceph-ansible scheint für die Konfiguration keine Vorlagendateien zu verwenden (nur als Platzhalter). Wie könnte es also erweitert oder optimiert werden, um diese Einstellungen zu ermöglichen?

Antwort1

Dies ist mit dem ceph_conf_overridesParameter ( möglich.http://docs.ceph.com/ceph-ansible/master/#ceph-conf-configuration).

ceph_conf_overrides:
  osd:
    osd map cache size: 40
    osd map max advance: 32
    osd map message max: 32

verwandte Informationen