Informieren Sie sich über Ceph-Resilienz auf OpenStack Autopilot

Informieren Sie sich über Ceph-Resilienz auf OpenStack Autopilot

Ich habe jetzt einen 7-Knoten-OpenStack-Cluster über Landscape/Autopilot erstellt. Ich habe Ceph für alles gewählt.

Nachdem ich mich mit Juju beschäftigt/sich mit Ceph befasst habe.

juju ssh ceph/0  
root@topdesk:~# rados df
pool name       category                 KB      objects       clones     degraded      unfound           rd        rd KB           wr        wr KB
.rgw            -                          2            6            0            0           0           20           14           23            6
.rgw.buckets    -                          2            4            0            0           0          108           90           24            5
.rgw.buckets.index -                          0            3            0            0           0           25           22           19            0
.rgw.control    -                          0            8            0            0           0            0            0            0            0
.rgw.gc         -                          0           32            0            0           0          828          828          576            0
.rgw.root       -                          1            3            0            0           0           24           16            3            3
.users.uid      -                          1            5            0            0           0           17           13           18            3
cinder          -                    4588521         1905            0            0           0         2120         6610         6679      3500193
data            -                          0            0            0            0           0            0            0            0            0
glance          -                   12636624         1557            0            0           0         1122      2737602         3140     12636631
metadata        -                          0            0            0            0           0            0            0            0            0
rbd             -                          0            0            0            0           0            0            0            0            0
  total used        52120568         3523
  total avail    11725934688
  total space    11778055256
root@topdesk:~# ceph osd lspools
0 data,1 metadata,2 rbd,3 .rgw.root,4 .rgw.control,5 .rgw,6 .rgw.gc,7 .users.uid,8 cinder,9 glance,10 .rgw.buckets.index,11 .rgw.buckets,
  1. Wie kann ich erkennen, wie hoch meine „Ausfallsicherheit“ ist, d. h. wie oft die Daten repliziert werden?
  2. Werden die Instanzen auch auf Ceph gespeichert, sodass ich eine Livemigration durchführen kann?

Antwort1

Um die Belastbarkeit Ihrer Daten zu ermitteln, versuchen Sie

sudo ceph osd dump | less

Zu Beginn der Ausgabe werden Ihnen je nach Ihrem Setup die Pools und die replizierte Größe oder die Anzahl der Erasure Codings angezeigt.

Die Livemigration von Instanzen hängt von der Art des verwendeten Volume-Speichers ab. Wenn es sich um einen Volume-gestützten Speicher handelt, können Sie die Livemigration verwenden. (Und ja, diese Volumes befinden sich auch auf Ceph.)

Antwort2

Die Ceph-Ausfallsicherheit in Autopilot beträgt 3 Replikate. Es wird kein Erasure Coding verwendet, da es derzeit für Blöcke nicht empfohlen wird.

verwandte Informationen