![OpenStack Autopilot에서 ceph 복원력을 살펴보세요.](https://rvso.com/image/1126799/OpenStack%20Autopilot%EC%97%90%EC%84%9C%20ceph%20%EB%B3%B5%EC%9B%90%EB%A0%A5%EC%9D%84%20%EC%82%B4%ED%8E%B4%EB%B3%B4%EC%84%B8%EC%9A%94..png)
이제 가로/자동 조종 장치를 통해 생성된 7노드 OpenStack 클러스터가 있습니다. 나는 모든 것에 대해 ceph를 선택했습니다.
주주에 들어간 후 / 세프를 살펴본 후.
juju ssh ceph/0
root@topdesk:~# rados df
pool name category KB objects clones degraded unfound rd rd KB wr wr KB
.rgw - 2 6 0 0 0 20 14 23 6
.rgw.buckets - 2 4 0 0 0 108 90 24 5
.rgw.buckets.index - 0 3 0 0 0 25 22 19 0
.rgw.control - 0 8 0 0 0 0 0 0 0
.rgw.gc - 0 32 0 0 0 828 828 576 0
.rgw.root - 1 3 0 0 0 24 16 3 3
.users.uid - 1 5 0 0 0 17 13 18 3
cinder - 4588521 1905 0 0 0 2120 6610 6679 3500193
data - 0 0 0 0 0 0 0 0 0
glance - 12636624 1557 0 0 0 1122 2737602 3140 12636631
metadata - 0 0 0 0 0 0 0 0 0
rbd - 0 0 0 0 0 0 0 0 0
total used 52120568 3523
total avail 11725934688
total space 11778055256
root@topdesk:~# ceph osd lspools
0 data,1 metadata,2 rbd,3 .rgw.root,4 .rgw.control,5 .rgw,6 .rgw.gc,7 .users.uid,8 cinder,9 glance,10 .rgw.buckets.index,11 .rgw.buckets,
- 데이터가 몇 번 복제되는지와 같이 내가 가지고 있는 "복원력"이 얼마나 되는지 어떻게 알 수 있나요?
- 실시간 마이그레이션을 수행할 수 있도록 인스턴스도 ceph에 저장됩니까?
답변1
데이터의 복원력을 찾으려면 다음을 시도해 보십시오.
sudo ceph osd dump | less
출력 시작 부분에는 설정에 따라 풀과 복제된 크기 또는 삭제 코딩 수가 표시됩니다.
인스턴스 라이브 마이그레이션은 사용되는 볼륨 스토리지 유형에 따라 다릅니다. 볼륨 지원 스토리지인 경우 실시간 마이그레이션을 사용할 수 있습니다. (그렇습니다. 해당 볼륨도 Ceph에 있습니다.)
답변2
Autopilot의 Ceph 복원력은 3개의 복제본입니다. 삭제 코딩은 현재 블록에 권장되지 않으므로 사용되지 않습니다.