
現在、landscape/autopilot 経由で作成された 7 ノードの OpenStack クラスターがあります。すべてに Ceph を選択しました。
juju に入った後 / ceph を調べます。
juju ssh ceph/0
root@topdesk:~# rados df
pool name category KB objects clones degraded unfound rd rd KB wr wr KB
.rgw - 2 6 0 0 0 20 14 23 6
.rgw.buckets - 2 4 0 0 0 108 90 24 5
.rgw.buckets.index - 0 3 0 0 0 25 22 19 0
.rgw.control - 0 8 0 0 0 0 0 0 0
.rgw.gc - 0 32 0 0 0 828 828 576 0
.rgw.root - 1 3 0 0 0 24 16 3 3
.users.uid - 1 5 0 0 0 17 13 18 3
cinder - 4588521 1905 0 0 0 2120 6610 6679 3500193
data - 0 0 0 0 0 0 0 0 0
glance - 12636624 1557 0 0 0 1122 2737602 3140 12636631
metadata - 0 0 0 0 0 0 0 0 0
rbd - 0 0 0 0 0 0 0 0 0
total used 52120568 3523
total avail 11725934688
total space 11778055256
root@topdesk:~# ceph osd lspools
0 data,1 metadata,2 rbd,3 .rgw.root,4 .rgw.control,5 .rgw,6 .rgw.gc,7 .users.uid,8 cinder,9 glance,10 .rgw.buckets.index,11 .rgw.buckets,
- データが何回複製されているかなど、どの程度の「回復力」があるかを確認するにはどうすればよいですか?
- ライブマイグレーションができるようにインスタンスも Ceph に保存されますか?
答え1
データの回復力を確認するには、
sudo ceph osd dump | less
出力の冒頭には、設定に応じてプールと複製されたサイズ、または消去コーディング数が表示されます。
インスタンスのライブ マイグレーションは、使用されるボリューム ストレージのタイプによって異なります。ボリューム バックアップ ストレージの場合は、ライブ マイグレーションを使用できます。(そして、はい、それらのボリュームも Ceph 上に存在します)。
答え2
Autopilot における Ceph の復元力は 3 つのレプリカです。現在ブロックには推奨されていないため、消失訂正符号は使用されません。