mdadm RAID10-Gerätereihenfolge nicht sequentiell

mdadm RAID10-Gerätereihenfolge nicht sequentiell

Nach einem Stromausfall funktionierte eines der Laufwerke in meinen beiden RAID10s nicht mehr und versetzte die Arrays in den Zustand „degradiert“. Das Laufwerk hatte zwei Partitionen, eine davon war, glaube ich, für ein Swap-RAID und die andere für das Ubuntu-RAID. Nachdem ich jedoch Dinge vom Ubuntu-RAID auf eine andere Festplatte verschoben hatte, stellte ich kürzlich fest, dass eine der Partitionen der fehlenden Festplatte irgendwie wiederhergestellt und dem Array wieder hinzugefügt wurde. Da ich dachte, dass es jetzt in Ordnung sein könnte, verwendete ich den folgenden Befehl, um die verbleibende Partition wieder hinzuzufügen:

sudo mdadm --manage --add /dev/md0 /dev/sdc1

Und es „funktioniert“, hat aber die falsche Nummer.

sudo cat /proc/mdstat
Personalities : [raid10] [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid10 sdd2[3] sdc2[2] sdb2[1] sda2[0]
      1890760704 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
      bitmap: 0/15 pages [0KB], 65536KB chunk

md0 : active raid10 sdc1[4] sdd1[3] sdb1[1] sda1[0]
      62466048 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

unused devices: <none>

/dev/sdc ist das früher fehlende Laufwerk. Beachten Sie, dass sdc1 und sdc2 in den Raids md0 und md1 die Nummern 4 und 2 haben. Vor dem Fehler war es für beide die Nummer 2. Es scheint jedoch wieder zu „funktionieren“. Hier sind einige andere Ausgaben, die die beiden Raids vergleichen.

sudo mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Thu Sep 28 07:19:50 2017
        Raid Level : raid10
        Array Size : 62466048 (59.57 GiB 63.97 GB)
     Used Dev Size : 31233024 (29.79 GiB 31.98 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sat Sep  2 22:58:51 2023
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : resync

              Name : Steward:0
              UUID : 587d0912:cbf49281:ed0bd4a2:c1a0102a
            Events : 567

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync set-A   /dev/sda1
       1       8       17        1      active sync set-B   /dev/sdb1
       4       8       33        2      active sync set-A   /dev/sdc1
       3       8       49        3      active sync set-B   /dev/sdd1

Im Vergleich zu md1:

sudo mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Thu Sep 28 07:20:13 2017
        Raid Level : raid10
        Array Size : 1890760704 (1803.17 GiB 1936.14 GB)
     Used Dev Size : 945380352 (901.58 GiB 968.07 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Sat Sep  2 22:34:13 2023
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : bitmap

              Name : Steward:1
              UUID : c2ee95cd:b36cdadf:43b68247:674d01f9
            Events : 7585156

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync set-A   /dev/sda2
       1       8       18        1      active sync set-B   /dev/sdb2
       2       8       34        2      active sync set-A   /dev/sdc2
       3       8       50        3      active sync set-B   /dev/sdd2

Habe ich etwas falsch gemacht? MD1 hat etwas über „Intent-Bitmap“, was MD0 nicht hat. Ich vermute, dass der Nummerierungsunterschied bedeutet, dass vom ursprünglichen Fehler irgendeine Art von Müll übrig geblieben ist. Wenn das der Fall ist, würde ich es gerne bereinigen. Bitte geben Sie mir Ihren Rat.

verwandte Informationen