Volver a montar RAID 6 imperfecto después de una instalación limpia

Volver a montar RAID 6 imperfecto después de una instalación limpia

Estoy ejecutando un pequeño servidor de laboratorio (inicios de sesión intermedios y almacenamiento de datos). Tiene 5 unidades físicas: una (sda) para /y RAID 6 de 4 unidades (sd[be]) para /home. Debido a una falla de hardware, tuve que reemplazar la primera unidad.

Ahora, después de reinstalar el sistema en una nueva unidad, quería volver a montar el RAID y volver a agregar los usuarios. Sin embargo, me encontré con un problema:

mdadm --detail /dev/md/old_raid\:0insinúa que sdb no está bien:

           Version : 1.2
     Creation Time : Thu Oct 20 11:29:38 2016
        Raid Level : raid6
        Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
     Used Dev Size : 2147351040 (2047.87 GiB 2198.89 GB)
      Raid Devices : 4
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Sat Sep 14 12:26:45 2019
             State : clean, degraded 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : Asna2:0
              UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
            Events : 521636

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       4       8       32        1      active sync   /dev/sdc
       2       8       49        2      active sync   /dev/sdd1
       3       8       65        3      active sync   /dev/sde1

Sin embargo, mdadm --examine/dev/sdb1enumera esto:

          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
           Name : Asna2:0
  Creation Time : Thu Oct 20 11:29:38 2016
     Raid Level : raid6
   Raid Devices : 4

 Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB)
     Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
  Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=1023 sectors
          State : clean
    Device UUID : a0aecf87:70ed61b2:3e36eb5c:8204d8f4

    Update Time : Wed Sep  4 00:39:22 2019
       Checksum : f0a3c084 - correct
         Events : 253375

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)

Y mdadm --examine /dev/sdc(aparentemente aparecieron algunos bloques malos):

          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
           Name : Asna2:0
  Creation Time : Thu Oct 20 11:29:38 2016
     Raid Level : raid6
   Raid Devices : 4

 Avail Dev Size : 5860271024 (2794.39 GiB 3000.46 GB)
     Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
  Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=1565568944 sectors
          State : clean
    Device UUID : df8c2562:f7adc18e:6ae7246f:02ebe494

    Update Time : Sat Sep 14 12:26:45 2019
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : b70b8fa1 - correct
         Events : 521636

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing)

EDITAR: Las impresiones para sdd y sde son las mismas que para sdc, excepto por la parte del bloque defectuoso.

¿Entiendo correctamente que el mejor curso de acción es

1) eliminar sdb y sdc

2) ponga a cero el sdb (o compre una segunda unidad de repuesto, esas son unidades rojas WD de 3 TB que son bastante caras)

3) cruzar los dedos y reconstruir la matriz

¿O existe una solución alternativa menos extrema?

información relacionada