Cockpit UI で複数のパーティションを持つ RAID 6 を設定しました。使用可能なスペースを使用して 10 TB から 11 TB に拡張したいパーティションが 1 つあり、/dev/md127p6 で「growpart /dev/md127p6 1」を使用して拡張を試みました。その後、このアレイの下にあるシステム内のマウント ポイントの一部 (実際には 2 つ) にアクセスできることに気付きました。
その時点から、再起動することにしました (/proc/mdstat をチェックしましたが、何も行われていませんでした)。サーバーが復旧すると、この RAID のすべてのパーティションが消えていました。
サーバーがオンラインに戻った後、RAID のサイズが異なっていることに気付きました (189TiB から 143TiB)。明らかに何かを間違えたのですが、最初からやり直す前に誰か何かアイデアがあるか知りたいです。
mdadm --detail /dev/md127 /dev/md127: バージョン: 1.2 作成時間: 2021 年 5 月 17 日月曜日 20:04:04 Raid レベル: raid6 アレイ サイズ: 153545080832 (146432.00 GiB 157230.16 GB) 使用されているデバイス サイズ: 11811160064 (11264.00 GiB 12094.63 GB) Raid デバイス: 15 合計デバイス数: 15 永続性: スーパーブロックは永続的です
Intent Bitmap : Internal Update Time : Mon Aug 2 20:05:13 2021 State : clean Active Devices : 15 Working Devices : 15 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 4K
一貫性ポリシー: ビットマップ
Name : storback:backups UUID : c8d289dd:2cb2ded3:cbcff4cd:1e7367ee Events : 150328 Number Major Minor RaidDevice State 0 8 32 0 active sync /dev/sdc 1 8 48 1 active sync /dev/sdd 2 8 64 2 active sync /dev/sde 3 8 80 3 active sync /dev/sdf 4 8 96 4 active sync /dev/sdg 5 8 112 5 active sync /dev/sdh 6 8 128 6 active sync /dev/sdi 7 8 144 7 active sync /dev/sdj 8 8 160 8 active sync /dev/sdk 9 8 192 9 active sync /dev/sdm 10 8 176 10 active sync /dev/sdl 11 8 208 11 active sync /dev/sdn 12 8 224 12 active sync /dev/sdo 13 8 240 13 active sync /dev/sdp 14 65 0 14 active sync /dev/sdq
答え1
まあ、これはそれほど重要なデバイスではなかったので、合計サイズが間違っていたので、即興で RAID を最大サイズまで拡張しようとしました。RAID サイズは、以前持っていたパーティション化されていない空きスペースの量だけ縮小されたように見えました。
このコマンドを実行すると、再起動後にすべてのパーティションが復元されました。
mdadm --grow /dev/md127 -z 最大