Я не уверен, что еще проверить. Все нижеперечисленное выглядит для меня разумным, но система зависает при загрузке. Это домашний сервер с четырьмя дисками, втиснутыми в Dell OP620. Каждая пара дисков собрана как RAID1: /
и data
. Неисправный массив — /
, отсюда и невозможность загрузки.
Полный текст ошибки, которая бесконечно повторяется на консоли, выглядит так:
incrementally starting raid arrays
mdadm: Create user root not found
mdadm: create group disk not found
incrementally started raid arrays
Похожий скриншот доступенздесь. Эта система работала нормально до последнего перезапуска. Массив отлично собирается с USB-накопителя Puppy Linux:
mdadm --assemble --scan
fdiisk
показывает доступные диски:
# fdisk -l|grep GB
Disk /dev/sda: 320.1 GB, 320072933376 bytes
Disk /dev/sdb: 320.1 GB, 320072933376 bytes
Disk /dev/sdc: 3000.6 GB, 3000592982016 bytes
Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes
Disk /dev/md127: 3000.5 GB, 3000457494528 bytes
Disk /dev/md126: 317.9 GB, 317938532352 bytes
Далее следуют blkid
UUID-идентификаторы:
# blkid
/dev/md126: UUID="fc836940-3c99-4f64-8751-decc9629abc5" TYPE="ext4"
/dev/md0: UUID="2b00d6da-aa0e-4295-a1bb-822f4224815b" TYPE="swap"
/dev/loop0: TYPE="squashfs"
/dev/sda1: UUID="908ccc1f-cb70-4d3e-9d81-43b8e0f519ff" TYPE="ext4"
/dev/sdb1: UUID="3a052c52-593f-47d5-8606-cb818619c50b" TYPE="ext4"
/dev/sde1: LABEL="8GB_BLACK_P" UUID="1CE1-AF11" TYPE="vfat"
и я могу смонтировать md126
устройство с помощью:
mount /dev/md126 /mnt/tmp
Мой (ранее работавший) файл fstab выглядит так:
proc /proc proc nodev,noexec,nosuid 0 0
# / was on /dev/md1 during installation
UUID=fc836940-3c99-4f64-8751-decc9629abc5 / ext4 errors=remount-ro 0 1
# swap was on /dev/md0 during installation
UUID=2b00d6da-aa0e-4295-a1bb-822f4224815b none swap sw 0 0
/dev/mapper/3TB_RAID--1--LVM-lvol0 /data ext4 nosuid,auto 0 0
решение1
У меня тоже была эта проблема. Я заметил, что ваш md имеет номер md126, который обычно является случайным числом, создаваемым во время загрузки, а не числом изmdadm.conf
В /boot/grub/grub.cfg
, различные вещи относятся как к так /dev/md??
иUUID=.....
Оба нужны. Если машина каждый раз загружается со случайным номером md???, initrd будет с трудом находить raid и войдет в бесконечный цикл.
Мне пришлось изменить эти цифры, поскольку я заново создал свое md-устройство.
update-grub
берет md?
номер из того, что в данный момент выполняется, /proc/mdstats
и помещает его в/boot/grub/grub.cfg
update-initramfs
извлекает md?
число из /etc/mdadm/mdadm.conf
файла и помещает его в /boot/initrd___
Оба должны совпадать.
Когда вы загружаетесь через диск восстановления, /dev/md...
это просто случайное число, которое создает диск восстановления. Это отличается от md...
числа в/etc/mdadm/mdadm.conf
Я запустил mdadm --stop /dev/md...
все диски. Затем запустил...
mdadm --assemble --config=/etc/mdadm/mdadm.conf --run
cat /proc/mdstat # To check that the numbers are correct.
update-grub
Если вам нужно было изменить /etc/mdadm/mdadm.conf
, также запуститеupdate-initramfs
Похоже, в вашем fstab указано / was on /dev/md1 during installation
; это число может быть в /boot/grub/grub.cfg
и /etc/mdadm/mdadm.conf
.
решение2
Я получил эту ошибку на виртуальной машине Xen, у которой на самом деле нет конфигурации RAID (но у машины Dom0/host она есть).
Фактическая ошибка не связана с RAID, но вам нужно немного прокрутить журнал вверх, и на моей машине фактическая ошибка заключается в том, что отсутствуют диски (или сетевой адаптер/vif), поэтому возникла какая-то проблема с Xenbus, предоставляющим устройства виртуальной машине:
[ 272.220880] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51714 (local state 1, remote state 1)
[ 272.221595] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51713 (local state 1, remote state 1)
[ 272.222102] xenbus_probe_frontend: Timeout connecting to device: device/vif/0 (local state 1, remote state 1)
Я решил проблему перезагрузкой хост-машины. После этого созданные виртуальные машины Xen снова загрузились нормально и увидели все устройства.