mdadm vuelve a sincronizar completamente el miembro raid5 pero lo pierde cada vez que reinicia

mdadm vuelve a sincronizar completamente el miembro raid5 pero lo pierde cada vez que reinicia

Al instalar win10, es posible que haya sobrescrito accidentalmente en un raid5miembro (configuración de 3 discos). Usé ubuntu livecd para volver a agregar el disco y volver a sincronizarlo (tomó 6 horas). Pero después de reiniciar, el disco se pierde nuevamente de la matriz y ni siquiera gparted. por lo que se tuvo que volver a realizar toda la resincronización. Ya pasó dos veces.

¿Cuál es el paso que me falta?

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sda[4] sdb[1] sde[3]
      3906764800 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
      [===========>.........]  recovery = 55.6% (1086304028/1953382400) finish=147.5min speed=97935K/sec
      bitmap: 0/15 pages [0KB], 65536KB chunk

unused devices: <none>

detalle de mdadm:

/dev/md1:
           Version : 1.2
     Creation Time : Sat Sep 21 14:09:01 2019
        Raid Level : raid5
        Array Size : 3906764800 (3725.78 GiB 4000.53 GB)
     Used Dev Size : 1953382400 (1862.89 GiB 2000.26 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Sat Jul 31 13:07:35 2021
             State : clean, degraded, recovering
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : bitmap

    Rebuild Status : 55% complete

              Name : vikas-asus-raid:1  (local to host vikas-asus-raid)
              UUID : ffe5d84b:45323883:86650996:ad3cb535
            Events : 44221

    Number   Major   Minor   RaidDevice State
       4       8        0        0      spare rebuilding   /dev/sda
       1       8       16        1      active sync   /dev/sdb
       3       8       64        2      active sync   /dev/sde

sudo parted -l:

Error: The primary GPT table is corrupt, but the backup appears OK, so that will
be used.
OK/Cancel? ok
Model: ATA WDC WD20EZRZ-00Z (scsi)
Disk /dev/sda: 2000GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system  Name  Flags
 1      1049kB  2000GB  2000GB  fat32


Error: /dev/sdb: unrecognised disk label
Model: ATA WDC WD20EURX-63T (scsi)
Disk /dev/sdb: 2000GB
Sector size (logical/physical): 512B/4096B
Partition Table: unknown
Disk Flags:

Model: ATA WDC WD20EZRX-00D (scsi)
Disk /dev/sdd: 2000GB
Sector size (logical/physical): 512B/4096B
Partition Table: msdos
Disk Flags:

Number  Start  End  Size  Type  File system  Flags


Model: WDC WD32 00BPVT-55ZEST0 (scsi)
Disk /dev/sde: 320GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type      File system     Flags
 1      1048kB  53.3GB  53.3GB  extended                  boot
 5      1049kB  53.3GB  53.3GB  logical   ext4
 3      53.3GB  102GB   49.2GB  primary   ext4
 2      102GB   202GB   100GB   primary   ext4
 4      308GB   320GB   11.8GB  primary   linux-swap(v1)


Model: Linux Software RAID Array (md)
Disk /dev/md1: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system  Flags
 1      0.00B  4001GB  4001GB  ext4

Respuesta1

Lo arreglé yo mismo. mdadm actúa de manera diferente a otros discos durante el apagado. El superbloque mdadm nunca se escribió automáticamente en el disco. Fue escrito cuando se detiene el mdadm. Aparentemente, un sistema de apagado debería hacer eso. Pero mdadm no fue elegante al cerrar y tomó un tiempo de espera completo de 1m:30s para ser asesinado a la fuerza. Entonces el reinicio no volvió a encontrar el disco.

Más tarde detuve mdadm entre la sincronización. Eso provocó que descargara el superbloque en el disco. En el siguiente reinicio, el disco se encontró automáticamente e incluso se reanudó la sincronización incompleta. Una vez que se vació el superbloque, incluso después de la sincronización, todos los sistemas volvieron a la normalidad.

Todavía no sé cuál fue mi error por este comportamiento. Pero me alegro de que esto se haya solucionado. La matriz raid5 degradada es como una espada colgante.

información relacionada