Agora tenho um cluster openstack de 7 nós criado via paisagem/piloto automático. Eu escolhi ceph para tudo.
Depois de entrar em juju / olhar para ceph.
juju ssh ceph/0
root@topdesk:~# rados df
pool name category KB objects clones degraded unfound rd rd KB wr wr KB
.rgw - 2 6 0 0 0 20 14 23 6
.rgw.buckets - 2 4 0 0 0 108 90 24 5
.rgw.buckets.index - 0 3 0 0 0 25 22 19 0
.rgw.control - 0 8 0 0 0 0 0 0 0
.rgw.gc - 0 32 0 0 0 828 828 576 0
.rgw.root - 1 3 0 0 0 24 16 3 3
.users.uid - 1 5 0 0 0 17 13 18 3
cinder - 4588521 1905 0 0 0 2120 6610 6679 3500193
data - 0 0 0 0 0 0 0 0 0
glance - 12636624 1557 0 0 0 1122 2737602 3140 12636631
metadata - 0 0 0 0 0 0 0 0 0
rbd - 0 0 0 0 0 0 0 0 0
total used 52120568 3523
total avail 11725934688
total space 11778055256
root@topdesk:~# ceph osd lspools
0 data,1 metadata,2 rbd,3 .rgw.root,4 .rgw.control,5 .rgw,6 .rgw.gc,7 .users.uid,8 cinder,9 glance,10 .rgw.buckets.index,11 .rgw.buckets,
- Como posso ver quanta “resiliência” tenho, quantas vezes os dados são replicados?
- As instâncias também são armazenadas no ceph para que eu possa fazer a migração ao vivo?
Responder1
Para encontrar a resiliência dos seus dados, tente
sudo ceph osd dump | less
No início da saída, ele mostrará os pools e o tamanho replicado ou a contagem de códigos de eliminação dependendo da sua configuração.
A migração ao vivo da instância depende do tipo de armazenamento de volume usado. Se for um armazenamento com suporte de volume, você poderá usar a migração ao vivo. (E sim, esses volumes também residem no Ceph).
Responder2
A resiliência do Ceph no Autopilot é de três réplicas. Nenhuma codificação de apagamento é usada, pois atualmente não é recomendada para bloqueio.