mdadm RAID-Array ist nach dem Neustart verschwunden

mdadm RAID-Array ist nach dem Neustart verschwunden

Ich verwende Manjaro und habe gerade mit mdadm ein zusätzliches RAID 0 eingerichtet und es als ext4 formatiert. Ich habe angefangen, es zu verwenden, und alles hat wunderbar funktioniert. Nach dem Neustart ist das Array jedoch verschwunden. Ich dachte, es hätte sich einfach nicht automatisch neu zusammengesetzt, aber es scheint vollständig verschwunden zu sein:

sudo mdadm --assemble --force /dev/md0 /dev/nvme0 /dev/nvme1 /dev/nvme2
mdadm: cannot open device /dev/nvme0: Invalid argument
mdadm: /dev/nvme0 has no superblock - assembly aborted

cat /proc/mdstat
cat: /proc/mdstat: No such file or directory

cat /etc/mdstat/mdstat.conf
cat: /etc/mdstat/mdstat.conf: No such file or directory

sudo mdadm --assemble --scan --force
mdadm: No arrays found in config file or automatically

sudo mdadm --assemble --force /dev/md0 /dev/nvme0n1 /dev/nvme1n1 /dev/nvme2n1
mdadm: Cannot assemble mbr metadata on /dev/nvme0n1
mdadm: /dev/nvme0n1 has no superblock - assembly aborted

Es scheint also, als sei sogar die Konfiguration dieses Arrays verschwunden?Unddie Superblöcke? Nehmen wir jetzt einmal an, dass die Laufwerke beim Neustart nicht zufällig ausgefallen sind, obwohl das nicht unmöglich ist. Ich habe natürlich keine wichtigen Daten auf diesem Array gespeichert, aber ich muss verstehen, wo etwas schiefgelaufen ist. Natürlich wäre es toll, das Array wiederherzustellen, und könnte mir ein paar Stunden Einrichtungszeit ersparen.

Einige zusätzliche Informationen

mdadm: Cannot assemble mbr metadata on /dev/nvme0n1"

Soweit ich mich erinnere, sollten die Festplatten jedoch GPT verwenden. Gibt es einen Parameter, den ich festlegen muss, damit GPT ausprobiert wird?

Ich habe inzwischen herausgefunden, dass durch die Neuerstellung des Arrays ohne Formatierung der Zugriff auf alle darauf gespeicherten Daten wiederhergestellt wird:

sudo mdadm --create --verbose --level=0 --metadata=1.2 --raid-devices=3 /dev/md/hpa /dev/nvme0n1 /dev/nvme1n1 /dev/nvme2n1 

aber bei jedem Neustart verschwindet es wieder und ich muss es neu erstellen.

sudo mdadm --detail --scan
ARRAY /dev/md/hpa metadata=1.2 name=Mnemosyne:hpa UUID=02f959b6:f432e82a:108e8b0d:8df6f2bf

cat /proc/mdstat 
Personalities : [raid0] 
md127 : active raid0 nvme2n1[2] nvme1n1[1] nvme0n1[0]
        1464763392 blocks super 1.2 512k chunks

unused devices: <none>

Was könnte ich sonst noch versuchen, um dieses Problem zu analysieren?

Antwort1

Grundsätzlich bestand die Lösung, die für mich funktioniert hat, darin, meine NVMe-Laufwerke mit einer einzelnen FD00-Linux-RAID-Partition zu formatieren und diese dann für das RAID zu verwenden.

gdisk /dev/nvme[0-2]n1

Geben Sie den Befehl n ein und drücken Sie dann die Eingabetaste, bis Sie zur Eingabe eines Partitionstyps mit Hexadezimalcode aufgefordert werden. Geben Sie fd00 ein und drücken Sie die Eingabetaste. Geben Sie den Befehl w ein und bestätigen Sie. Wiederholen Sie dies für alle Laufwerke und fahren Sie dann mit der Erstellung Ihres Arrays wie zuvor fort, aber verwenden Sie dieses Mal die Partitionen, die Sie anstelle des Blockgeräts erstellt haben, zum Beispiel:

mdadm --create --verbose --level=0 --metadata=1.2 --raid-devices=3 /dev/md/hpa /dev/nvme0n1p1 /dev/nvme1n1p1 /dev/nvme2n1p1

verwandte Informationen