我在 Cockpit UI 中設定了具有多個分割區的 RAID 6。我特別想使用可用空間將一個分割區從 10TB 擴展到 11TB,並嘗試使用“growpart /dev/md127p6 1”在 /dev/md127p6 上。後來我注意到我可以存取該陣列下系統中的一些掛載點(實際上是其中兩個)。
從那時起,我決定重新啟動(檢查/proc/mdstat,它沒有做任何事情)。一旦伺服器恢復,所有分割區都消失了。
伺服器重新上線後,我注意到 raid 的大小有所不同(從 189TiB 到 143TiB)。顯然我搞砸了一些事情,但我想知道在我重新開始之前是否有人有任何想法。
mdadm --detail /dev/md127 /dev/md127:版本:1.2 建立時間:2021 年5 月17 日星期一20:04:04 RAID 等級:raid6 陣列大小:153545080832 (146432.00 GiB 15732 :11811160064 (1 1264.00 GiB 12094.63 GB) Raid 設備:15 設備總數:15 持久性:超級塊是持久性的
Intent Bitmap : Internal Update Time : Mon Aug 2 20:05:13 2021 State : clean Active Devices : 15 Working Devices : 15 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 4K
一致性策略:點陣圖
Name : storback:backups UUID : c8d289dd:2cb2ded3:cbcff4cd:1e7367ee Events : 150328 Number Major Minor RaidDevice State 0 8 32 0 active sync /dev/sdc 1 8 48 1 active sync /dev/sdd 2 8 64 2 active sync /dev/sde 3 8 80 3 active sync /dev/sdf 4 8 96 4 active sync /dev/sdg 5 8 112 5 active sync /dev/sdh 6 8 128 6 active sync /dev/sdi 7 8 144 7 active sync /dev/sdj 8 8 160 8 active sync /dev/sdk 9 8 192 9 active sync /dev/sdm 10 8 176 10 active sync /dev/sdl 11 8 208 11 active sync /dev/sdn 12 8 224 12 active sync /dev/sdo 13 8 240 13 active sync /dev/sdp 14 65 0 14 active sync /dev/sdq
答案1
好吧,由於這不是超級重要的設備,我嘗試將其擴展至最大尺寸,因為總尺寸不正確。看起來,RAID 大小似乎因我之前擁有的未分區的可用空間量而縮小了。
我運行了這個命令,所有分區在重新啟動後都恢復了:
mdadm --grow /dev/md127 -z 最大