Analice la resistencia de Ceph en el piloto automático de OpenStack

Analice la resistencia de Ceph en el piloto automático de OpenStack

Ahora tengo un clúster OpenStack de 7 nodos creado mediante paisaje/piloto automático. Elegí ceph para todo.

Después de entrar en juju/mirar en ceph.

juju ssh ceph/0  
root@topdesk:~# rados df
pool name       category                 KB      objects       clones     degraded      unfound           rd        rd KB           wr        wr KB
.rgw            -                          2            6            0            0           0           20           14           23            6
.rgw.buckets    -                          2            4            0            0           0          108           90           24            5
.rgw.buckets.index -                          0            3            0            0           0           25           22           19            0
.rgw.control    -                          0            8            0            0           0            0            0            0            0
.rgw.gc         -                          0           32            0            0           0          828          828          576            0
.rgw.root       -                          1            3            0            0           0           24           16            3            3
.users.uid      -                          1            5            0            0           0           17           13           18            3
cinder          -                    4588521         1905            0            0           0         2120         6610         6679      3500193
data            -                          0            0            0            0           0            0            0            0            0
glance          -                   12636624         1557            0            0           0         1122      2737602         3140     12636631
metadata        -                          0            0            0            0           0            0            0            0            0
rbd             -                          0            0            0            0           0            0            0            0            0
  total used        52120568         3523
  total avail    11725934688
  total space    11778055256
root@topdesk:~# ceph osd lspools
0 data,1 metadata,2 rbd,3 .rgw.root,4 .rgw.control,5 .rgw,6 .rgw.gc,7 .users.uid,8 cinder,9 glance,10 .rgw.buckets.index,11 .rgw.buckets,
  1. ¿Cómo puedo ver cuánta "resiliencia" tengo y cuántas veces se replican los datos?
  2. ¿Las instancias también se almacenan en ceph para poder realizar una migración en vivo?

Respuesta1

Para encontrar la resiliencia de sus datos, intente

sudo ceph osd dump | less

Al comienzo del resultado, le mostrará los grupos y el tamaño replicado o el recuento de codificación de borrado, según su configuración.

La migración en vivo de instancias depende del tipo de almacenamiento de volumen utilizado. Si se trata de un almacenamiento respaldado por un volumen, entonces puede utilizar la migración en vivo. (Y sí, esos volúmenes también se encuentran en Ceph).

Respuesta2

La resiliencia de Ceph en Autopilot es de 3 réplicas. No se utiliza codificación de borrado, ya que actualmente no se recomienda su bloqueo.

información relacionada