全新安裝後重新安裝不完美的 RAID 6

全新安裝後重新安裝不完美的 RAID 6

我正在運行一個小型實驗室伺服器(中間登入和資料儲存)。它有 5 個實體磁碟機:1 個 (sda) 用於/,4 個磁碟機 RAID 6 (sd[be]) 用於/home。由於硬體故障,我不得不更換第一個驅動器。

現在,在新磁碟機上重新安裝系統後,我想重新安裝 RAID 並重新新增使用者。然而,我遇到了一個問題:

mdadm --detail /dev/md/old_raid\:0提示 sdb 不好:

           Version : 1.2
     Creation Time : Thu Oct 20 11:29:38 2016
        Raid Level : raid6
        Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
     Used Dev Size : 2147351040 (2047.87 GiB 2198.89 GB)
      Raid Devices : 4
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Sat Sep 14 12:26:45 2019
             State : clean, degraded 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : Asna2:0
              UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
            Events : 521636

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       4       8       32        1      active sync   /dev/sdc
       2       8       49        2      active sync   /dev/sdd1
       3       8       65        3      active sync   /dev/sde1

但是, mdadm --examine/dev/sdb1列出了這一點:

          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
           Name : Asna2:0
  Creation Time : Thu Oct 20 11:29:38 2016
     Raid Level : raid6
   Raid Devices : 4

 Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB)
     Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
  Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=1023 sectors
          State : clean
    Device UUID : a0aecf87:70ed61b2:3e36eb5c:8204d8f4

    Update Time : Wed Sep  4 00:39:22 2019
       Checksum : f0a3c084 - correct
         Events : 253375

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)

並且mdadm --examine /dev/sdc(顯然有一些壞塊潛入):

          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
           Name : Asna2:0
  Creation Time : Thu Oct 20 11:29:38 2016
     Raid Level : raid6
   Raid Devices : 4

 Avail Dev Size : 5860271024 (2794.39 GiB 3000.46 GB)
     Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
  Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=1565568944 sectors
          State : clean
    Device UUID : df8c2562:f7adc18e:6ae7246f:02ebe494

    Update Time : Sat Sep 14 12:26:45 2019
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : b70b8fa1 - correct
         Events : 521636

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing)

編輯:sdd 和 sde 的列印輸出與 sdc 相同,除了壞塊部分。

我是否正確理解最好的行動方案是

1)刪除sdb和sdc

2) 將 sdb 歸零(或購買第二個備用驅動器,那些是 3Tb WD 紅色,非常昂貴)

3)交叉手指並重建數組

或者有其他不那麼極端的解決方案嗎?

相關內容