![Изучите устойчивость ceph на OpenStack Autopilot](https://rvso.com/image/1126799/%D0%98%D0%B7%D1%83%D1%87%D0%B8%D1%82%D0%B5%20%D1%83%D1%81%D1%82%D0%BE%D0%B9%D1%87%D0%B8%D0%B2%D0%BE%D1%81%D1%82%D1%8C%20ceph%20%D0%BD%D0%B0%20OpenStack%20Autopilot.png)
Теперь у меня есть кластер openstack из 7 узлов, созданный через landscape/autopilot. Я выбрал ceph для всего.
После того, как попал в juju / посмотрел на ceph.
juju ssh ceph/0
root@topdesk:~# rados df
pool name category KB objects clones degraded unfound rd rd KB wr wr KB
.rgw - 2 6 0 0 0 20 14 23 6
.rgw.buckets - 2 4 0 0 0 108 90 24 5
.rgw.buckets.index - 0 3 0 0 0 25 22 19 0
.rgw.control - 0 8 0 0 0 0 0 0 0
.rgw.gc - 0 32 0 0 0 828 828 576 0
.rgw.root - 1 3 0 0 0 24 16 3 3
.users.uid - 1 5 0 0 0 17 13 18 3
cinder - 4588521 1905 0 0 0 2120 6610 6679 3500193
data - 0 0 0 0 0 0 0 0 0
glance - 12636624 1557 0 0 0 1122 2737602 3140 12636631
metadata - 0 0 0 0 0 0 0 0 0
rbd - 0 0 0 0 0 0 0 0 0
total used 52120568 3523
total avail 11725934688
total space 11778055256
root@topdesk:~# ceph osd lspools
0 data,1 metadata,2 rbd,3 .rgw.root,4 .rgw.control,5 .rgw,6 .rgw.gc,7 .users.uid,8 cinder,9 glance,10 .rgw.buckets.index,11 .rgw.buckets,
- Как узнать, насколько я «устойчив», например, сколько раз реплицируются данные?
- Сохраняются ли экземпляры также на ceph, чтобы я мог выполнять живую миграцию?
решение1
Чтобы проверить устойчивость ваших данных, попробуйте
sudo ceph osd dump | less
В начале вывода будут показаны пулы и реплицированный размер или количество кодов стирания в зависимости от ваших настроек.
Живая миграция экземпляра зависит от типа используемого хранилища томов. Если это хранилище с поддержкой томов, то вы можете использовать живую миграцию. (И да, эти тома также находятся на Ceph).
решение2
Устойчивость Ceph в Autopilot составляет 3 реплики. Кодирование стирания не используется, так как в настоящее время оно не рекомендуется для блока.