![Analice la resistencia de Ceph en el piloto automático de OpenStack](https://rvso.com/image/1126799/Analice%20la%20resistencia%20de%20Ceph%20en%20el%20piloto%20autom%C3%A1tico%20de%20OpenStack.png)
Ahora tengo un clúster OpenStack de 7 nodos creado mediante paisaje/piloto automático. Elegí ceph para todo.
Después de entrar en juju/mirar en ceph.
juju ssh ceph/0
root@topdesk:~# rados df
pool name category KB objects clones degraded unfound rd rd KB wr wr KB
.rgw - 2 6 0 0 0 20 14 23 6
.rgw.buckets - 2 4 0 0 0 108 90 24 5
.rgw.buckets.index - 0 3 0 0 0 25 22 19 0
.rgw.control - 0 8 0 0 0 0 0 0 0
.rgw.gc - 0 32 0 0 0 828 828 576 0
.rgw.root - 1 3 0 0 0 24 16 3 3
.users.uid - 1 5 0 0 0 17 13 18 3
cinder - 4588521 1905 0 0 0 2120 6610 6679 3500193
data - 0 0 0 0 0 0 0 0 0
glance - 12636624 1557 0 0 0 1122 2737602 3140 12636631
metadata - 0 0 0 0 0 0 0 0 0
rbd - 0 0 0 0 0 0 0 0 0
total used 52120568 3523
total avail 11725934688
total space 11778055256
root@topdesk:~# ceph osd lspools
0 data,1 metadata,2 rbd,3 .rgw.root,4 .rgw.control,5 .rgw,6 .rgw.gc,7 .users.uid,8 cinder,9 glance,10 .rgw.buckets.index,11 .rgw.buckets,
- ¿Cómo puedo ver cuánta "resiliencia" tengo y cuántas veces se replican los datos?
- ¿Las instancias también se almacenan en ceph para poder realizar una migración en vivo?
Respuesta1
Para encontrar la resiliencia de sus datos, intente
sudo ceph osd dump | less
Al comienzo del resultado, le mostrará los grupos y el tamaño replicado o el recuento de codificación de borrado, según su configuración.
La migración en vivo de instancias depende del tipo de almacenamiento de volumen utilizado. Si se trata de un almacenamiento respaldado por un volumen, entonces puede utilizar la migración en vivo. (Y sí, esos volúmenes también se encuentran en Ceph).
Respuesta2
La resiliencia de Ceph en Autopilot es de 3 réplicas. No se utiliza codificación de borrado, ya que actualmente no se recomienda su bloqueo.