Linux-RAID-Array wird nach Neustart nicht zusammengestellt

Linux-RAID-Array wird nach Neustart nicht zusammengestellt

Ich habe ein RAID-Problem.

Ich hatte ein RAID6-Array auf 4 Laufwerken - /dev/sd[bcde]. Funktionierte einwandfrei. Dann habe ich ein 5. Mitglied hinzugefügt - /dev/sda. Funktionierte einwandfrei.

Bitte beachten: Ich hatte keine Partitionen auf den Laufwerken, sondern habe nur „Bare Metal“ verwendet, um das RAID zu erstellen. Dann kam es zu einem unerwarteten Neustart und das RAID-Volume wird überhaupt nicht zusammengesetzt.

Ich habe das Übliche versucht ( mdadm assembleusw.), aber die Laufwerke werden überhaupt nicht als RAID-Mitglieder angezeigt.

Beispiel von einem Freund mit ähnlichem Setup:

[ARBEITEN]

cemil@nas ~ $ sudo blkid
/dev/sda1: UUID="F6D2-282A" TYPE="vfat" PARTLABEL="EFI System Partition" PARTUUID="98d0708a-596c-4466-960a-05f75201c5ea"
/dev/sda2: UUID="dcc0c278-a345-426a-b308-a939c2810c7f" TYPE="ext4" PARTUUID="5385706c-e22c-4730-8328-0e4f645a4d9a"
/dev/sda3: UUID="5aa684cc-7c41-4bbf-819b-389649c02b59" TYPE="swap" PARTUUID="75c3d9d3-7786-4aed-8017-3e5d582c5c98"
/dev/sdb: UUID="599ce008-859c-f8b6-ee29-e7e6c75e77c5" UUID_SUB="00177490-172b-32f9-773a-b87f4d87ee4c" LABEL="nas:1" TYPE="linux_raid_member"
/dev/sdc: UUID="599ce008-859c-f8b6-ee29-e7e6c75e77c5" UUID_SUB="deff4c59-2590-b5d3-118d-ce1c60599794" LABEL="nas:1" TYPE="linux_raid_member"
/dev/sdd: UUID="599ce008-859c-f8b6-ee29-e7e6c75e77c5" UUID_SUB="e540534b-cf80-37b0-c638-166a7fed7c28" LABEL="nas:1" TYPE="linux_raid_member"
/dev/sde: UUID="599ce008-859c-f8b6-ee29-e7e6c75e77c5" UUID_SUB="f62c46ef-6909-84a0-b4c6-60d3250e669f" LABEL="nas:1" TYPE="linux_raid_member"
/dev/md1: LABEL="data" UUID="dbc084a8-9e79-47a6-9b76-43652bb52727" TYPE="ext4"
/dev/sdf: UUID="599ce008-859c-f8b6-ee29-e7e6c75e77c5" UUID_SUB="b2ad6574-9ca5-624f-7a28-30ac28c6c1ec" LABEL="nas:1" TYPE="linux_raid_member"
/dev/sdg: UUID="599ce008-859c-f8b6-ee29-e7e6c75e77c5" UUID_SUB="36c33f7c-973c-4f58-2485-7fea7c894793" LABEL="nas:1" TYPE="linux_raid_member"

Seine Partitionen werden eindeutig als TYPE="linux_raid_member" angezeigt.

gdisk -l erstellt darauf keine Partitionen.

cemil@nas ~ $ sudo gdisk -l /dev/sdg
GPT fdisk (gdisk) version 1.0.1

Partition table scan:
  MBR: not present
  BSD: not present
  APM: not present
  GPT: not present

Creating new GPT entries.
Disk /dev/sdg: 7814037168 sectors, 3.6 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): 73292DAF-ACFD-4705-B9E9-FD2A3EEDDD21
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 7814037134
Partitions will be aligned on 2048-sector boundaries
Total free space is 7814037101 sectors (3.6 TiB)

Number  Start (sector)    End (sector)  Size       Code  Name

[FUNKTIONIERT NICHT]

mamba proc # blkid
/dev/nvme0n1p1: UUID="BB15-8E88" TYPE="vfat" PARTLABEL="EFI System Partition" PARTUUID="a8bbf31a-bebf-4ceb-91ad-f3b75a64c7b7"
/dev/nvme0n1p2: UUID="8c0efdcc-817e-432f-871b-fa9420830e79" TYPE="ext4" PARTUUID="ed5c675a-5f82-4ce9-847e-f7dc31db2e6f"
/dev/nvme0n1p3: UUID="cfbc85ae-da1a-46ed-8cca-6f548387ed14" TYPE="swap" PARTUUID="4055b238-b1e1-44fe-8bfe-90d3c93a712a"
/dev/nvme0n1: PTUUID="0e306ff3-c7bd-4ac5-a47c-dead00f17738" PTTYPE="gpt"
/dev/sda: PTUUID="4af97682-efc8-4743-8880-5324adfac329" PTTYPE="gpt"
/dev/sdb: PTUUID="772aced1-d34d-43bf-aeab-388052e5e5b2" PTTYPE="gpt"
/dev/sdc: PTUUID="8d9a8dc6-29af-4f90-84b1-f4b5e885f3f1" PTTYPE="gpt"
/dev/sdd: PTUUID="c0fc34af-3bff-47b1-acbb-e9692e003aa4" PTTYPE="gpt"
/dev/sde: PTUUID="848e2d60-94e3-450f-aba4-d35c30ed9561" PTTYPE="gpt"

Beachten Sie den Unterschied – /dev/sd[abcde]alle werden als angezeigt, PTTTYPE=gptaber nicht als linux_raid_member.

mamba proc # gdisk -l /dev/sda
GPT fdisk (gdisk) version 1.0.1

Partition table scan:
  MBR: protective
  BSD: not present
  APM: not present
  GPT: present

Found valid GPT with protective MBR; using GPT.
Disk /dev/sda: 7814037168 sectors, 3.6 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): 4AF97682-EFC8-4743-8880-5324ADFAC329
Partition table holds up to 128 entries
First usable sector is 2048, last usable sector is 7814037134
Partitions will be aligned on 2048-sector boundaries
Total free space is 7814035087 sectors (3.6 TiB)

Number  Start (sector)    End (sector)  Size       Code  Name

Beachten Sie den Unterschied – ich habe anscheinend GPT und MBR = „schützend“.

Gibt es irgendwelche Hinweise, wie ich diese Laufwerke als RAID-Mitglieder erkennen lassen kann? Zur Info:

mamba proc # mdadm --assemble --force /dev/md0 /dev/sda /dev/sdb /dev/sdc /dev/sde
mdadm: Cannot assemble mbr metadata on /dev/sda
mdadm: /dev/sda has no superblock - assembly aborted
mamba proc # mdadm -D /dev/sda
mdadm: /dev/sda does not appear to be an md device
mamba proc # mdadm -E /dev/sda
/dev/sda:
   MBR Magic : aa55
Partition[0] :   4294967295 sectors at            1 (type ee)

Die scheinen nicht gut zu sein. :-)

Antwort1

Nachdem ich stundenlang das gleiche Problem hatte, habe ich es gelöst.

Ich würde Folgendes empfehlen:

  1. Wenn möglich, alles aus dem Raid herausnehmen
  2. Wenn das Array derzeit aktiv ist, führen Sie mdadm --stop /dev/md0 aus.
  3. Setzen Sie diese Festplatten auf Null: dd if=/dev/zero of=/dev/sd[abce] bs=1M count=100
  4. Erstellen Sie Partitionen auf sda, sdb, sdc und sde, die 99 % der Festplatte umfassen [0]
  5. Formatieren Sie diese Partitionen niemals mit irgendeinem Dateisystem
  6. Erstellen Sie ein neues RAID mit mdadm – erstellen Sie hier Ihre Parameter
  7. Aktualisieren Sie /etc/mdadm.conf
  8. Formatieren Sie Ihr Array mit mkfs.ext4 /dev/md0
  9. Überprüfen Sie cat /proc/mdstat auf den Fortschritt

Sie können während der Wiederherstellung einen Neustart durchführen, um zu testen, ob der Fehler bestehen bleibt. Sie müssen nicht warten, bis der Vorgang abgeschlossen ist. Der Neustart erfolgt dort, wo er unterbrochen wurde.

Ich bin nicht ganz sicher, woran das liegt, aber Sie können keine RAID-Arrays direkt auf der Festplatte erstellen, diese müssen über den Partitionen liegen.

verwandte Informationen