El orden del dispositivo mdadm RAID10 no es secuencial

El orden del dispositivo mdadm RAID10 no es secuencial

Después de un corte de energía, una de las unidades de mis dos RAID10 dejó de funcionar y puso las matrices en estado "degradado". La unidad tenía dos particiones, una que creo que era para una incursión de intercambio y la otra para la incursión de Ubuntu. Sin embargo, después de mover cosas del RAID de Ubuntu a otro disco, recientemente descubrí que de alguna manera una de las particiones del disco faltante se restauró y se volvió a agregar a la matriz. Pensando que podría estar bien ahora, utilicé el siguiente comando para volver a agregar la partición restante:

sudo mdadm --manage --add /dev/md0 /dev/sdc1

Y "funciona", pero obtuvo el número equivocado.

sudo cat /proc/mdstat
Personalities : [raid10] [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid10 sdd2[3] sdc2[2] sdb2[1] sda2[0]
      1890760704 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
      bitmap: 0/15 pages [0KB], 65536KB chunk

md0 : active raid10 sdc1[4] sdd1[3] sdb1[1] sda1[0]
      62466048 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

unused devices: <none>

/dev/sdc es la unidad que faltaba anteriormente. Tenga en cuenta que sdc1 y sdc2 tienen los números 4 y 2 en las incursiones md0 y md1 respectivamente. Solía ​​ser el número 2 para ambos antes del fracaso. Sin embargo, las cosas parecen estar "funcionando" de nuevo. Aquí hay algunos otros resultados que comparan las dos redadas.

sudo mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Thu Sep 28 07:19:50 2017
        Raid Level : raid10
        Array Size : 62466048 (59.57 GiB 63.97 GB)
     Used Dev Size : 31233024 (29.79 GiB 31.98 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sat Sep  2 22:58:51 2023
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : resync

              Name : Steward:0
              UUID : 587d0912:cbf49281:ed0bd4a2:c1a0102a
            Events : 567

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync set-A   /dev/sda1
       1       8       17        1      active sync set-B   /dev/sdb1
       4       8       33        2      active sync set-A   /dev/sdc1
       3       8       49        3      active sync set-B   /dev/sdd1

Comparado con md1:

sudo mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Thu Sep 28 07:20:13 2017
        Raid Level : raid10
        Array Size : 1890760704 (1803.17 GiB 1936.14 GB)
     Used Dev Size : 945380352 (901.58 GiB 968.07 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Sat Sep  2 22:34:13 2023
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : bitmap

              Name : Steward:1
              UUID : c2ee95cd:b36cdadf:43b68247:674d01f9
            Events : 7585156

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync set-A   /dev/sda2
       1       8       18        1      active sync set-B   /dev/sdb2
       2       8       34        2      active sync set-A   /dev/sdc2
       3       8       50        3      active sync set-B   /dev/sdd2

¿Hice algo malo? md1 tiene algo sobre "Mapa de bits de intención" que md0 no tiene. Sospecho que la diferencia de numeración significa que se ha dejado algo de basura de algún tipo en el error original. Me gustaría limpiarlo si ese es el caso. Por favor presta tu consejo.

información relacionada