
Nach einem Stromausfall funktionierte eines der Laufwerke in meinen beiden RAID10s nicht mehr und versetzte die Arrays in den Zustand „degradiert“. Das Laufwerk hatte zwei Partitionen, eine davon war, glaube ich, für ein Swap-RAID und die andere für das Ubuntu-RAID. Nachdem ich jedoch Dinge vom Ubuntu-RAID auf eine andere Festplatte verschoben hatte, stellte ich kürzlich fest, dass eine der Partitionen der fehlenden Festplatte irgendwie wiederhergestellt und dem Array wieder hinzugefügt wurde. Da ich dachte, dass es jetzt in Ordnung sein könnte, verwendete ich den folgenden Befehl, um die verbleibende Partition wieder hinzuzufügen:
sudo mdadm --manage --add /dev/md0 /dev/sdc1
Und es „funktioniert“, hat aber die falsche Nummer.
sudo cat /proc/mdstat
Personalities : [raid10] [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid10 sdd2[3] sdc2[2] sdb2[1] sda2[0]
1890760704 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 0/15 pages [0KB], 65536KB chunk
md0 : active raid10 sdc1[4] sdd1[3] sdb1[1] sda1[0]
62466048 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
unused devices: <none>
/dev/sdc ist das früher fehlende Laufwerk. Beachten Sie, dass sdc1 und sdc2 in den Raids md0 und md1 die Nummern 4 und 2 haben. Vor dem Fehler war es für beide die Nummer 2. Es scheint jedoch wieder zu „funktionieren“. Hier sind einige andere Ausgaben, die die beiden Raids vergleichen.
sudo mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Sep 28 07:19:50 2017
Raid Level : raid10
Array Size : 62466048 (59.57 GiB 63.97 GB)
Used Dev Size : 31233024 (29.79 GiB 31.98 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Sep 2 22:58:51 2023
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Consistency Policy : resync
Name : Steward:0
UUID : 587d0912:cbf49281:ed0bd4a2:c1a0102a
Events : 567
Number Major Minor RaidDevice State
0 8 1 0 active sync set-A /dev/sda1
1 8 17 1 active sync set-B /dev/sdb1
4 8 33 2 active sync set-A /dev/sdc1
3 8 49 3 active sync set-B /dev/sdd1
Im Vergleich zu md1:
sudo mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Thu Sep 28 07:20:13 2017
Raid Level : raid10
Array Size : 1890760704 (1803.17 GiB 1936.14 GB)
Used Dev Size : 945380352 (901.58 GiB 968.07 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sat Sep 2 22:34:13 2023
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Consistency Policy : bitmap
Name : Steward:1
UUID : c2ee95cd:b36cdadf:43b68247:674d01f9
Events : 7585156
Number Major Minor RaidDevice State
0 8 2 0 active sync set-A /dev/sda2
1 8 18 1 active sync set-B /dev/sdb2
2 8 34 2 active sync set-A /dev/sdc2
3 8 50 3 active sync set-B /dev/sdd2
Habe ich etwas falsch gemacht? MD1 hat etwas über „Intent-Bitmap“, was MD0 nicht hat. Ich vermute, dass der Nummerierungsunterschied bedeutet, dass vom ursprünglichen Fehler irgendeine Art von Müll übrig geblieben ist. Wenn das der Fall ist, würde ich es gerne bereinigen. Bitte geben Sie mir Ihren Rat.