OpenStack Autopilot에서 ceph 복원력을 살펴보세요.

OpenStack Autopilot에서 ceph 복원력을 살펴보세요.

이제 가로/자동 조종 장치를 통해 생성된 7노드 OpenStack 클러스터가 있습니다. 나는 모든 것에 대해 ceph를 선택했습니다.

주주에 들어간 후 / 세프를 살펴본 후.

juju ssh ceph/0  
root@topdesk:~# rados df
pool name       category                 KB      objects       clones     degraded      unfound           rd        rd KB           wr        wr KB
.rgw            -                          2            6            0            0           0           20           14           23            6
.rgw.buckets    -                          2            4            0            0           0          108           90           24            5
.rgw.buckets.index -                          0            3            0            0           0           25           22           19            0
.rgw.control    -                          0            8            0            0           0            0            0            0            0
.rgw.gc         -                          0           32            0            0           0          828          828          576            0
.rgw.root       -                          1            3            0            0           0           24           16            3            3
.users.uid      -                          1            5            0            0           0           17           13           18            3
cinder          -                    4588521         1905            0            0           0         2120         6610         6679      3500193
data            -                          0            0            0            0           0            0            0            0            0
glance          -                   12636624         1557            0            0           0         1122      2737602         3140     12636631
metadata        -                          0            0            0            0           0            0            0            0            0
rbd             -                          0            0            0            0           0            0            0            0            0
  total used        52120568         3523
  total avail    11725934688
  total space    11778055256
root@topdesk:~# ceph osd lspools
0 data,1 metadata,2 rbd,3 .rgw.root,4 .rgw.control,5 .rgw,6 .rgw.gc,7 .users.uid,8 cinder,9 glance,10 .rgw.buckets.index,11 .rgw.buckets,
  1. 데이터가 몇 번 복제되는지와 같이 내가 가지고 있는 "복원력"이 얼마나 되는지 어떻게 알 수 있나요?
  2. 실시간 마이그레이션을 수행할 수 있도록 인스턴스도 ceph에 저장됩니까?

답변1

데이터의 복원력을 찾으려면 다음을 시도해 보십시오.

sudo ceph osd dump | less

출력 시작 부분에는 설정에 따라 풀과 복제된 크기 또는 삭제 코딩 수가 표시됩니다.

인스턴스 라이브 마이그레이션은 사용되는 볼륨 스토리지 유형에 따라 다릅니다. 볼륨 지원 스토리지인 경우 실시간 마이그레이션을 사용할 수 있습니다. (그렇습니다. 해당 볼륨도 Ceph에 있습니다.)

답변2

Autopilot의 Ceph 복원력은 3개의 복제본입니다. 삭제 코딩은 현재 블록에 권장되지 않으므로 사용되지 않습니다.

관련 정보