Ошибка системного диска MDADM RAID1 Home Server: инкрементальный запуск RAID-массивов mdadm: создание пользователя root не найдено

Ошибка системного диска MDADM RAID1 Home Server: инкрементальный запуск RAID-массивов mdadm: создание пользователя root не найдено

Я не уверен, что еще проверить. Все нижеперечисленное выглядит для меня разумным, но система зависает при загрузке. Это домашний сервер с четырьмя дисками, втиснутыми в Dell OP620. Каждая пара дисков собрана как RAID1: /и data. Неисправный массив — /, отсюда и невозможность загрузки.

Полный текст ошибки, которая бесконечно повторяется на консоли, выглядит так:

incrementally starting raid arrays
mdadm: Create user root not found 
mdadm: create group disk not found 
incrementally started raid arrays

Похожий скриншот доступенздесь. Эта система работала нормально до последнего перезапуска. Массив отлично собирается с USB-накопителя Puppy Linux:

mdadm --assemble --scan

fdiiskпоказывает доступные диски:

# fdisk -l|grep GB
Disk /dev/sda: 320.1 GB, 320072933376 bytes
Disk /dev/sdb: 320.1 GB, 320072933376 bytes
Disk /dev/sdc: 3000.6 GB, 3000592982016 bytes
Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes
Disk /dev/md127: 3000.5 GB, 3000457494528 bytes
Disk /dev/md126: 317.9 GB, 317938532352 bytes

Далее следуют blkidUUID-идентификаторы:

# blkid
/dev/md126: UUID="fc836940-3c99-4f64-8751-decc9629abc5" TYPE="ext4"
/dev/md0: UUID="2b00d6da-aa0e-4295-a1bb-822f4224815b" TYPE="swap"
/dev/loop0: TYPE="squashfs"
/dev/sda1: UUID="908ccc1f-cb70-4d3e-9d81-43b8e0f519ff" TYPE="ext4"
/dev/sdb1: UUID="3a052c52-593f-47d5-8606-cb818619c50b" TYPE="ext4"
/dev/sde1: LABEL="8GB_BLACK_P" UUID="1CE1-AF11" TYPE="vfat"

и я могу смонтировать md126устройство с помощью:

mount /dev/md126 /mnt/tmp

Мой (ранее работавший) файл fstab выглядит так:

proc            /proc           proc    nodev,noexec,nosuid 0       0
# / was on /dev/md1 during installation
UUID=fc836940-3c99-4f64-8751-decc9629abc5 /               ext4    errors=remount-ro 0       1
# swap was on /dev/md0 during installation
UUID=2b00d6da-aa0e-4295-a1bb-822f4224815b none            swap    sw              0       0

/dev/mapper/3TB_RAID--1--LVM-lvol0      /data   ext4    nosuid,auto     0 0

решение1

У меня тоже была эта проблема. Я заметил, что ваш md имеет номер md126, который обычно является случайным числом, создаваемым во время загрузки, а не числом изmdadm.conf

В /boot/grub/grub.cfg, различные вещи относятся как к так /dev/md??иUUID=.....

Оба нужны. Если машина каждый раз загружается со случайным номером md???, initrd будет с трудом находить raid и войдет в бесконечный цикл.

Мне пришлось изменить эти цифры, поскольку я заново создал свое md-устройство.

update-grubберет md?номер из того, что в данный момент выполняется, /proc/mdstatsи помещает его в/boot/grub/grub.cfg

update-initramfsизвлекает md?число из /etc/mdadm/mdadm.confфайла и помещает его в /boot/initrd___ Оба должны совпадать.

Когда вы загружаетесь через диск восстановления, /dev/md...это просто случайное число, которое создает диск восстановления. Это отличается от md...числа в/etc/mdadm/mdadm.conf

Я запустил mdadm --stop /dev/md...все диски. Затем запустил...

mdadm --assemble --config=/etc/mdadm/mdadm.conf --run
cat /proc/mdstat   # To check that the numbers are correct.
update-grub

Если вам нужно было изменить /etc/mdadm/mdadm.conf, также запуститеupdate-initramfs

Похоже, в вашем fstab указано / was on /dev/md1 during installation; это число может быть в /boot/grub/grub.cfgи /etc/mdadm/mdadm.conf.

решение2

Я получил эту ошибку на виртуальной машине Xen, у которой на самом деле нет конфигурации RAID (но у машины Dom0/host она есть).

Фактическая ошибка не связана с RAID, но вам нужно немного прокрутить журнал вверх, и на моей машине фактическая ошибка заключается в том, что отсутствуют диски (или сетевой адаптер/vif), поэтому возникла какая-то проблема с Xenbus, предоставляющим устройства виртуальной машине:

 [  272.220880] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51714 (local state 1, remote state 1)
 [  272.221595] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51713 (local state 1, remote state 1)
 [  272.222102] xenbus_probe_frontend: Timeout connecting to device: device/vif/0 (local state 1, remote state 1)

Я решил проблему перезагрузкой хост-машины. После этого созданные виртуальные машины Xen снова загрузились нормально и увидели все устройства.

Связанный контент