Beschädigtes Dateisystem nach dem Hinzufügen einer Festplatte zu mdadm raid 6

Beschädigtes Dateisystem nach dem Hinzufügen einer Festplatte zu mdadm raid 6

Ich habe ein mdadm-RAID-6-Dateisystem, bei dem nur 3 von 4 Festplatten laufen. Ich habe 4 x 2 TB-Festplatten. Immer wenn ich die vierte Festplatte hinzufüge (ich habe es die ganze Woche versucht) und ein Update durchführe, lserhalte ich einige Dateisystemfehler:

$ ll /mnt/downloads/downloads
...
d????????? ? ?    ?       ?                   ? drivers/
...

Aber immer wenn ich die neu hinzugefügte Festplatte entferne, wird das Dateisystem korrekt angezeigt:

$ sudo mdadm /dev/md0 --fail /dev/sde1
mdadm: set /dev/sde1 faulty in /dev/md0
$ ll /mnt/downloads/downloads
(correct contents)

Ich habe versucht, den Superblock auf Null zu setzen und sudo wipefs -a /dev/sde1die RAID-bezogenen Blöcke zu löschen, und alles hat zum gleichen Fehler geführt.

Das Überprüfen des MDADM-Arrays mit nur drei Festplatten zeigt keine Fehler, wenn Sie Folgendes tun echo check > /sys/block/md0/md/sync_action:

Ich habe versucht, alle Sektoren der Festplatte zu lesen, um zu sehen, ob ein fehlerhafter Block angezeigt wird, aber nichts dergleichen ist aufgetreten.

Ich führe sudo badblocks -wsv /dev/sde1jetzt einen auf der Festplatte aus, bezweifle jedoch, dass Fehler auftreten werden.

Das hat mich sehr verwirrt: Ist meine Festplatte einfach irgendwie defekt und die Festplattenprüfungen funktionieren aus irgendeinem Grund nicht?

Oder hat es etwas damit zu tun, dass ich die Festplatte nicht richtig hinzugefügt habe? Ich habe Folgendes ausgeführt:

sudo mdadm /dev/md0 -a /dev/sde1

Ich glaube, ich habe diesen Befehl immer ausgeführt, während das Dateisystem noch gemountet war, und es beim Hinzufügen der Festplatte gemountet. Ich glaube nicht, dass dies ein Problem verursachen würde, oder?

Antwort1

Wenn das Laufwerk selbst nicht defekt ist, handelt es sich höchstwahrscheinlich um einen Kernel-Fehler.

Beispielsweise gab es vor Kurzem einen Fehler bei der RAID6-Neusynchronisierung, der zu Datenbeschädigungen führte. Je nachdem, welche Kernel-Version Sie verwenden, könnten Sie davon betroffen sein:

BUG: RAID6-Wiederherstellung durch Commit 4f4fd7c5798bbdd5a03a60f6269cf1177fbd11ef unterbrochen

Überprüfen Sie andernfalls auch, ob RAID-Inkonsistenzen ( mdadm --action=check /dev/mdX, watch head /sys/block/md*/md/mismatch_cnt) vorliegen, die in der verbleibenden Parität des RAID6 vorhanden sein könnten.

Überprüfen Sie auch alle anderen Winkel, Memtest, Smartctl usw. sowie dmesg auf Fehlermeldungen, die möglicherweise während der Neusynchronisierung aufgetreten sind.

Antwort2

Das Problem wurde beim Spielen mit btrfs entdeckt undVMware aktualisieren, stellt sich heraus:

Festplatte 0 und Festplatte 4, die physischen Festplatten, die ich zu meinem Arch Linux VMware-Gast hinzugefügt habe, waren ein und dieselbe.

Kein Wunder, dass es kaputt ging.

Die Antwort von Frostschutz wäre möglicherweise trotzdem von Bedeutung gewesen, da meine Kernel-Version zu den betroffenen Versionen gehörte.

verwandte Informationen