그 밖에 무엇을 확인해야 할지 잘 모르겠습니다. 아래의 모든 내용은 정상으로 보이지만 부팅 시 시스템이 중단됩니다. 이것은 Dell OP620에 4개의 디스크가 내장된 홈 서버입니다. 각 디스크 쌍은 RAID1: /
및 로 조립됩니다 data
. 실패한 어레이는 /
이므로 부팅할 수 없습니다.
콘솔에서 무기한 반복되는 전체 오류는 다음과 같습니다.
incrementally starting raid arrays
mdadm: Create user root not found
mdadm: create group disk not found
incrementally started raid arrays
유사한 스크린샷을 사용할 수 있습니다.여기. 이 시스템은 마지막으로 다시 시작할 때까지 정상적으로 실행되었습니다. 어레이는 Puppy Linux 복구 USB에서 잘 조립됩니다.
mdadm --assemble --scan
fdiisk
사용 가능한 디스크를 표시합니다.
# fdisk -l|grep GB
Disk /dev/sda: 320.1 GB, 320072933376 bytes
Disk /dev/sdb: 320.1 GB, 320072933376 bytes
Disk /dev/sdc: 3000.6 GB, 3000592982016 bytes
Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes
Disk /dev/md127: 3000.5 GB, 3000457494528 bytes
Disk /dev/md126: 317.9 GB, 317938532352 bytes
이어서 blkid
UUID를 표시합니다.
# blkid
/dev/md126: UUID="fc836940-3c99-4f64-8751-decc9629abc5" TYPE="ext4"
/dev/md0: UUID="2b00d6da-aa0e-4295-a1bb-822f4224815b" TYPE="swap"
/dev/loop0: TYPE="squashfs"
/dev/sda1: UUID="908ccc1f-cb70-4d3e-9d81-43b8e0f519ff" TYPE="ext4"
/dev/sdb1: UUID="3a052c52-593f-47d5-8606-cb818619c50b" TYPE="ext4"
/dev/sde1: LABEL="8GB_BLACK_P" UUID="1CE1-AF11" TYPE="vfat"
다음을 사용하여 장치 를 마운트할 수 있습니다 md126
.
mount /dev/md126 /mnt/tmp
내 (이전에 작업한) fstab 파일은 다음과 같습니다.
proc /proc proc nodev,noexec,nosuid 0 0
# / was on /dev/md1 during installation
UUID=fc836940-3c99-4f64-8751-decc9629abc5 / ext4 errors=remount-ro 0 1
# swap was on /dev/md0 during installation
UUID=2b00d6da-aa0e-4295-a1bb-822f4224815b none swap sw 0 0
/dev/mapper/3TB_RAID--1--LVM-lvol0 /data ext4 nosuid,auto 0 0
답변1
나도 방금이 문제를 겪었습니다. 귀하의 MD 번호가 md126으로 지정되어 있는 것을 확인했습니다. 이는 일반적으로 부팅 시 구성되는 임의의 번호입니다.mdadm.conf
에서는 /boot/grub/grub.cfg
다양한 항목이 /dev/md??
및UUID=.....
둘 다 필요합니다. 머신이 임의의 MD로 부팅되는 경우??? 매번 번호를 입력하면 initrd는 공격대를 찾는 데 어려움을 겪고 끝없는 루프에 빠지게 됩니다.
MD 장치를 다시 만들었기 때문에 이 숫자를 변경해야 했습니다.
update-grub
md?
현재 실행 중인 항목에서 번호를 가져 /proc/mdstats
와서/boot/grub/grub.cfg
update-initramfs
md?
파일 에서 번호를 가져 /etc/mdadm/mdadm.conf
와서 /boot/initrd___
둘 다 일치해야 합니다.
복구 디스크를 통해 부팅하는 경우 /dev/md...
복구 디스크가 구성하는 임의의 숫자가 됩니다. md...
에 있는 숫자 와는 다릅니다 ./etc/mdadm/mdadm.conf
내가 한 일은 mdadm --stop /dev/md...
모든 디스크에서 실행되는 것이었습니다. 그러다가 달렸다...
mdadm --assemble --config=/etc/mdadm/mdadm.conf --run
cat /proc/mdstat # To check that the numbers are correct.
update-grub
변경해야 할 경우 /etc/mdadm/mdadm.conf
에도 실행하십시오.update-initramfs
fstab이 말하는 것 같습니다 / was on /dev/md1 during installation
. 그것은 /boot/grub/grub.cfg
and 에 있을 수 있는 숫자입니다 /etc/mdadm/mdadm.conf
.
답변2
실제로 RAID 구성이 없는(그러나 Dom0/호스트 시스템에는 있음) Xen 가상 시스템에서 이 오류가 발생했습니다.
실제 오류는 RAID가 아니지만 로그를 약간 위로 스크롤해야 하며 내 컴퓨터에서 실제 오류는 디스크(또는 네트워크 어댑터/vif)가 없다는 것이므로 Xenbus가 제공하는 데 몇 가지 문제가 있습니다. 장치를 가상 머신에:
[ 272.220880] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51714 (local state 1, remote state 1)
[ 272.221595] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51713 (local state 1, remote state 1)
[ 272.222102] xenbus_probe_frontend: Timeout connecting to device: device/vif/0 (local state 1, remote state 1)
호스트 컴퓨터를 재부팅하여 문제를 해결했습니다. 그 후 생성된 xen 가상 머신이 다시 정상적으로 부팅되고 모든 장치가 표시되었습니다.