mdadm分區重啟後消失

mdadm分區重啟後消失

我在 Cockpit UI 中設定了具有多個分割區的 RAID 6。我特別想使用可用空間將一個分割區從 10TB 擴展到 11TB,並嘗試使用“growpart /dev/md127p6 1”在 /dev/md127p6 上。後來我注意到我可以存取該陣列下系統中的一些掛載點(實際上是其中兩個)。

從那時起,我決定​​重新啟動(檢查/proc/mdstat,它沒有做任何事情)。一旦伺服器恢復,所有分割區都消失了。

伺服器重新上線後,我注意到 raid 的大小有所不同(從 189TiB 到 143TiB)。顯然我搞砸了一些事情,但我想知道在我重新開始之前是否有人有任何想法。

mdadm --detail /dev/md127 /dev/md127:版本:1.2 建立時間:2021 年5 月17 日星期一20:04:04 RAID 等級:raid6 陣列大小:153545080832 (146432.00 GiB 15732 :11811160064 (1 1264.00 GiB 12094.63 GB) Raid 設備:15 設備總數:15 持久性:超級塊是持久性的

 Intent Bitmap : Internal

   Update Time : Mon Aug  2 20:05:13 2021
         State : clean
Active Devices : 15    Working Devices : 15
Failed Devices : 0
 Spare Devices : 0

        Layout : left-symmetric
    Chunk Size : 4K

一致性策略:點陣圖

          Name : storback:backups
          UUID : c8d289dd:2cb2ded3:cbcff4cd:1e7367ee
        Events : 150328

Number   Major   Minor   RaidDevice State
   0       8       32        0      active sync   /dev/sdc
   1       8       48        1      active sync   /dev/sdd
   2       8       64        2      active sync   /dev/sde
   3       8       80        3      active sync   /dev/sdf
   4       8       96        4      active sync   /dev/sdg
   5       8      112        5      active sync   /dev/sdh
   6       8      128        6      active sync   /dev/sdi
   7       8      144        7      active sync   /dev/sdj
   8       8      160        8      active sync   /dev/sdk
   9       8      192        9      active sync   /dev/sdm
  10       8      176       10      active sync   /dev/sdl
  11       8      208       11      active sync   /dev/sdn
  12       8      224       12      active sync   /dev/sdo
  13       8      240       13      active sync   /dev/sdp
  14      65        0       14      active sync   /dev/sdq

答案1

好吧,由於這不是超級重要的設備,我嘗試將其擴展至最大尺寸,因為總尺寸不正確。看起來,RAID 大小似乎因我之前擁有的未分區的可用空間量而縮小了。

我運行了這個命令,所有分區在重新啟動後都恢復了:

mdadm --grow /dev/md127 -z 最大

相關內容