RAID-массив Linux не собирается после перезагрузки

RAID-массив Linux не собирается после перезагрузки

У меня проблема с RAID.

У меня был массив RAID6 на 4 дисках - /dev/sd[bcde]. Работает нормально. Затем я добавил 5-го участника - /dev/sda. Работает нормально.

Обратите внимание: у меня не было разделов на дисках, я просто использовал "голое железо" для создания RAID. Затем у меня произошла неожиданная перезагрузка, и том RAID вообще не собирается.

Я пробовал обычные способы ( mdadm assembleи т. д.), но диски вообще не отображаются как участники RAID.

Пример от друга с похожей настройкой:

[РАБОТАЮЩИЙ]

cemil@nas ~ $ sudo blkid
/dev/sda1: UUID="F6D2-282A" TYPE="vfat" PARTLABEL="EFI System Partition" PARTUUID="98d0708a-596c-4466-960a-05f75201c5ea"
/dev/sda2: UUID="dcc0c278-a345-426a-b308-a939c2810c7f" TYPE="ext4" PARTUUID="5385706c-e22c-4730-8328-0e4f645a4d9a"
/dev/sda3: UUID="5aa684cc-7c41-4bbf-819b-389649c02b59" TYPE="swap" PARTUUID="75c3d9d3-7786-4aed-8017-3e5d582c5c98"
/dev/sdb: UUID="599ce008-859c-f8b6-ee29-e7e6c75e77c5" UUID_SUB="00177490-172b-32f9-773a-b87f4d87ee4c" LABEL="nas:1" TYPE="linux_raid_member"
/dev/sdc: UUID="599ce008-859c-f8b6-ee29-e7e6c75e77c5" UUID_SUB="deff4c59-2590-b5d3-118d-ce1c60599794" LABEL="nas:1" TYPE="linux_raid_member"
/dev/sdd: UUID="599ce008-859c-f8b6-ee29-e7e6c75e77c5" UUID_SUB="e540534b-cf80-37b0-c638-166a7fed7c28" LABEL="nas:1" TYPE="linux_raid_member"
/dev/sde: UUID="599ce008-859c-f8b6-ee29-e7e6c75e77c5" UUID_SUB="f62c46ef-6909-84a0-b4c6-60d3250e669f" LABEL="nas:1" TYPE="linux_raid_member"
/dev/md1: LABEL="data" UUID="dbc084a8-9e79-47a6-9b76-43652bb52727" TYPE="ext4"
/dev/sdf: UUID="599ce008-859c-f8b6-ee29-e7e6c75e77c5" UUID_SUB="b2ad6574-9ca5-624f-7a28-30ac28c6c1ec" LABEL="nas:1" TYPE="linux_raid_member"
/dev/sdg: UUID="599ce008-859c-f8b6-ee29-e7e6c75e77c5" UUID_SUB="36c33f7c-973c-4f58-2485-7fea7c894793" LABEL="nas:1" TYPE="linux_raid_member"

Очевидно, его разделы отображаются как TYPE="linux_raid_member"

gdisk -l на нем не дает никаких разделов.

cemil@nas ~ $ sudo gdisk -l /dev/sdg
GPT fdisk (gdisk) version 1.0.1

Partition table scan:
  MBR: not present
  BSD: not present
  APM: not present
  GPT: not present

Creating new GPT entries.
Disk /dev/sdg: 7814037168 sectors, 3.6 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): 73292DAF-ACFD-4705-B9E9-FD2A3EEDDD21
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 7814037134
Partitions will be aligned on 2048-sector boundaries
Total free space is 7814037101 sectors (3.6 TiB)

Number  Start (sector)    End (sector)  Size       Code  Name

[НЕ РАБОТАЕТ]

mamba proc # blkid
/dev/nvme0n1p1: UUID="BB15-8E88" TYPE="vfat" PARTLABEL="EFI System Partition" PARTUUID="a8bbf31a-bebf-4ceb-91ad-f3b75a64c7b7"
/dev/nvme0n1p2: UUID="8c0efdcc-817e-432f-871b-fa9420830e79" TYPE="ext4" PARTUUID="ed5c675a-5f82-4ce9-847e-f7dc31db2e6f"
/dev/nvme0n1p3: UUID="cfbc85ae-da1a-46ed-8cca-6f548387ed14" TYPE="swap" PARTUUID="4055b238-b1e1-44fe-8bfe-90d3c93a712a"
/dev/nvme0n1: PTUUID="0e306ff3-c7bd-4ac5-a47c-dead00f17738" PTTYPE="gpt"
/dev/sda: PTUUID="4af97682-efc8-4743-8880-5324adfac329" PTTYPE="gpt"
/dev/sdb: PTUUID="772aced1-d34d-43bf-aeab-388052e5e5b2" PTTYPE="gpt"
/dev/sdc: PTUUID="8d9a8dc6-29af-4f90-84b1-f4b5e885f3f1" PTTYPE="gpt"
/dev/sdd: PTUUID="c0fc34af-3bff-47b1-acbb-e9692e003aa4" PTTYPE="gpt"
/dev/sde: PTUUID="848e2d60-94e3-450f-aba4-d35c30ed9561" PTTYPE="gpt"

Обратите внимание на разницу — /dev/sd[abcde]все они появляются как , PTTTYPE=gptно не как linux_raid_member.

mamba proc # gdisk -l /dev/sda
GPT fdisk (gdisk) version 1.0.1

Partition table scan:
  MBR: protective
  BSD: not present
  APM: not present
  GPT: present

Found valid GPT with protective MBR; using GPT.
Disk /dev/sda: 7814037168 sectors, 3.6 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): 4AF97682-EFC8-4743-8880-5324ADFAC329
Partition table holds up to 128 entries
First usable sector is 2048, last usable sector is 7814037134
Partitions will be aligned on 2048-sector boundaries
Total free space is 7814035087 sectors (3.6 TiB)

Number  Start (sector)    End (sector)  Size       Code  Name

Обратите внимание на разницу — у меня, похоже, GPT и MBR = «защитный».

Есть ли какие-нибудь подсказки, как мне сделать так, чтобы эти диски распознавались как участники RAID? Для справки:

mamba proc # mdadm --assemble --force /dev/md0 /dev/sda /dev/sdb /dev/sdc /dev/sde
mdadm: Cannot assemble mbr metadata on /dev/sda
mdadm: /dev/sda has no superblock - assembly aborted
mamba proc # mdadm -D /dev/sda
mdadm: /dev/sda does not appear to be an md device
mamba proc # mdadm -E /dev/sda
/dev/sda:
   MBR Magic : aa55
Partition[0] :   4294967295 sectors at            1 (type ee)

Кажется, это нехорошо. :-)

решение1

После нескольких часов борьбы с той же проблемой я ее решил.

Я бы порекомендовал следующее:

  1. Если возможно, уберите все с рейда.
  2. Если массив в данный момент активен, выполните mdadm --stop /dev/md0
  3. Обнулите эти диски: dd if=/dev/zero of=/dev/sd[abce] bs=1M count=100
  4. Создайте разделы на sda, sdb, sdc и sde, которые охватывают 99% диска [0]
  5. никогда не форматируйте эти разделы с помощью какой-либо файловой системы
  6. Создайте новый RAID с помощью mdadm --создайте свои параметры здесь
  7. Обновить /etc/mdadm.conf
  8. отформатируйте ваш массив с помощью mkfs.ext4 /dev/md0
  9. проверьте cat /proc/mdstat на предмет прогресса

Вы можете перезагрузиться, пока он находится в процессе восстановления, просто чтобы проверить, останется ли он. Вам не нужно ждать, пока он завершится. Он перезапустится с того места, где остановился.

Я не совсем уверен, что является причиной, но вы не можете создавать RAID-массивы непосредственно на диске, они должны располагаться поверх разделов.

Связанный контент