![Informieren Sie sich über Ceph-Resilienz auf OpenStack Autopilot](https://rvso.com/image/1126799/Informieren%20Sie%20sich%20%C3%BCber%20Ceph-Resilienz%20auf%20OpenStack%20Autopilot.png)
Ich habe jetzt einen 7-Knoten-OpenStack-Cluster über Landscape/Autopilot erstellt. Ich habe Ceph für alles gewählt.
Nachdem ich mich mit Juju beschäftigt/sich mit Ceph befasst habe.
juju ssh ceph/0
root@topdesk:~# rados df
pool name category KB objects clones degraded unfound rd rd KB wr wr KB
.rgw - 2 6 0 0 0 20 14 23 6
.rgw.buckets - 2 4 0 0 0 108 90 24 5
.rgw.buckets.index - 0 3 0 0 0 25 22 19 0
.rgw.control - 0 8 0 0 0 0 0 0 0
.rgw.gc - 0 32 0 0 0 828 828 576 0
.rgw.root - 1 3 0 0 0 24 16 3 3
.users.uid - 1 5 0 0 0 17 13 18 3
cinder - 4588521 1905 0 0 0 2120 6610 6679 3500193
data - 0 0 0 0 0 0 0 0 0
glance - 12636624 1557 0 0 0 1122 2737602 3140 12636631
metadata - 0 0 0 0 0 0 0 0 0
rbd - 0 0 0 0 0 0 0 0 0
total used 52120568 3523
total avail 11725934688
total space 11778055256
root@topdesk:~# ceph osd lspools
0 data,1 metadata,2 rbd,3 .rgw.root,4 .rgw.control,5 .rgw,6 .rgw.gc,7 .users.uid,8 cinder,9 glance,10 .rgw.buckets.index,11 .rgw.buckets,
- Wie kann ich erkennen, wie hoch meine „Ausfallsicherheit“ ist, d. h. wie oft die Daten repliziert werden?
- Werden die Instanzen auch auf Ceph gespeichert, sodass ich eine Livemigration durchführen kann?
Antwort1
Um die Belastbarkeit Ihrer Daten zu ermitteln, versuchen Sie
sudo ceph osd dump | less
Zu Beginn der Ausgabe werden Ihnen je nach Ihrem Setup die Pools und die replizierte Größe oder die Anzahl der Erasure Codings angezeigt.
Die Livemigration von Instanzen hängt von der Art des verwendeten Volume-Speichers ab. Wenn es sich um einen Volume-gestützten Speicher handelt, können Sie die Livemigration verwenden. (Und ja, diese Volumes befinden sich auch auf Ceph.)
Antwort2
Die Ceph-Ausfallsicherheit in Autopilot beträgt 3 Replikate. Es wird kein Erasure Coding verwendet, da es derzeit für Blöcke nicht empfohlen wird.