MDADM RAID1 홈 서버 시스템 디스크 오류: RAID 배열을 점진적으로 시작하는 중 mdadm: 사용자 루트 생성을 찾을 수 없습니다.

MDADM RAID1 홈 서버 시스템 디스크 오류: RAID 배열을 점진적으로 시작하는 중 mdadm: 사용자 루트 생성을 찾을 수 없습니다.

그 밖에 무엇을 확인해야 할지 잘 모르겠습니다. 아래의 모든 내용은 정상으로 보이지만 부팅 시 시스템이 중단됩니다. 이것은 Dell OP620에 4개의 디스크가 내장된 홈 서버입니다. 각 디스크 쌍은 RAID1: /및 로 조립됩니다 data. 실패한 어레이는 /이므로 부팅할 수 없습니다.

콘솔에서 무기한 반복되는 전체 오류는 다음과 같습니다.

incrementally starting raid arrays
mdadm: Create user root not found 
mdadm: create group disk not found 
incrementally started raid arrays

유사한 스크린샷을 사용할 수 있습니다.여기. 이 시스템은 마지막으로 다시 시작할 때까지 정상적으로 실행되었습니다. 어레이는 Puppy Linux 복구 USB에서 잘 조립됩니다.

mdadm --assemble --scan

fdiisk사용 가능한 디스크를 표시합니다.

# fdisk -l|grep GB
Disk /dev/sda: 320.1 GB, 320072933376 bytes
Disk /dev/sdb: 320.1 GB, 320072933376 bytes
Disk /dev/sdc: 3000.6 GB, 3000592982016 bytes
Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes
Disk /dev/md127: 3000.5 GB, 3000457494528 bytes
Disk /dev/md126: 317.9 GB, 317938532352 bytes

이어서 blkidUUID를 표시합니다.

# blkid
/dev/md126: UUID="fc836940-3c99-4f64-8751-decc9629abc5" TYPE="ext4"
/dev/md0: UUID="2b00d6da-aa0e-4295-a1bb-822f4224815b" TYPE="swap"
/dev/loop0: TYPE="squashfs"
/dev/sda1: UUID="908ccc1f-cb70-4d3e-9d81-43b8e0f519ff" TYPE="ext4"
/dev/sdb1: UUID="3a052c52-593f-47d5-8606-cb818619c50b" TYPE="ext4"
/dev/sde1: LABEL="8GB_BLACK_P" UUID="1CE1-AF11" TYPE="vfat"

다음을 사용하여 장치 를 마운트할 수 있습니다 md126.

mount /dev/md126 /mnt/tmp

내 (이전에 작업한) fstab 파일은 다음과 같습니다.

proc            /proc           proc    nodev,noexec,nosuid 0       0
# / was on /dev/md1 during installation
UUID=fc836940-3c99-4f64-8751-decc9629abc5 /               ext4    errors=remount-ro 0       1
# swap was on /dev/md0 during installation
UUID=2b00d6da-aa0e-4295-a1bb-822f4224815b none            swap    sw              0       0

/dev/mapper/3TB_RAID--1--LVM-lvol0      /data   ext4    nosuid,auto     0 0

답변1

나도 방금이 문제를 겪었습니다. 귀하의 MD 번호가 md126으로 지정되어 있는 것을 확인했습니다. 이는 일반적으로 부팅 시 구성되는 임의의 번호입니다.mdadm.conf

에서는 /boot/grub/grub.cfg다양한 항목이 /dev/md??UUID=.....

둘 다 필요합니다. 머신이 임의의 MD로 부팅되는 경우??? 매번 번호를 입력하면 initrd는 공격대를 찾는 데 어려움을 겪고 끝없는 루프에 빠지게 됩니다.

MD 장치를 다시 만들었기 때문에 이 숫자를 변경해야 했습니다.

update-grubmd?현재 실행 중인 항목에서 번호를 가져 /proc/mdstats와서/boot/grub/grub.cfg

update-initramfsmd?파일 에서 번호를 가져 /etc/mdadm/mdadm.conf와서 /boot/initrd___ 둘 다 일치해야 합니다.

복구 디스크를 통해 부팅하는 경우 /dev/md...복구 디스크가 구성하는 임의의 숫자가 됩니다. md...에 있는 숫자 와는 다릅니다 ./etc/mdadm/mdadm.conf

내가 한 일은 mdadm --stop /dev/md...모든 디스크에서 실행되는 것이었습니다. 그러다가 달렸다...

mdadm --assemble --config=/etc/mdadm/mdadm.conf --run
cat /proc/mdstat   # To check that the numbers are correct.
update-grub

변경해야 할 경우 /etc/mdadm/mdadm.conf에도 실행하십시오.update-initramfs

fstab이 말하는 것 같습니다 / was on /dev/md1 during installation. 그것은 /boot/grub/grub.cfgand 에 있을 수 있는 숫자입니다 /etc/mdadm/mdadm.conf.

답변2

실제로 RAID 구성이 없는(그러나 Dom0/호스트 시스템에는 있음) Xen 가상 시스템에서 이 오류가 발생했습니다.

실제 오류는 RAID가 아니지만 로그를 약간 위로 스크롤해야 하며 내 컴퓨터에서 실제 오류는 디스크(또는 네트워크 어댑터/vif)가 없다는 것이므로 Xenbus가 제공하는 데 몇 가지 문제가 있습니다. 장치를 가상 머신에:

 [  272.220880] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51714 (local state 1, remote state 1)
 [  272.221595] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51713 (local state 1, remote state 1)
 [  272.222102] xenbus_probe_frontend: Timeout connecting to device: device/vif/0 (local state 1, remote state 1)

호스트 컴퓨터를 재부팅하여 문제를 해결했습니다. 그 후 생성된 xen 가상 머신이 다시 정상적으로 부팅되고 모든 장치가 표시되었습니다.

관련 정보