他に何をチェックすればよいかわかりません。以下はすべて正常のように見えますが、システムが起動時にハングします。これは、Dell OP620 に 4 つのディスクが詰め込まれたホーム サーバーです。ディスクの各ペアは RAID1 として組み立てられています:/
およびdata
。障害が発生したアレイは である/
ため、起動できません。
コンソール上で無限に繰り返されるエラーの全文は次のとおりです。
incrementally starting raid arrays
mdadm: Create user root not found
mdadm: create group disk not found
incrementally started raid arrays
同様のスクリーンショットが利用可能こここのシステムは最後の再起動まで正常に動作していました。アレイは Puppy Linux レスキュー USB から正常に組み立てられます。
mdadm --assemble --scan
fdiisk
利用可能なディスクを表示します:
# fdisk -l|grep GB
Disk /dev/sda: 320.1 GB, 320072933376 bytes
Disk /dev/sdb: 320.1 GB, 320072933376 bytes
Disk /dev/sdc: 3000.6 GB, 3000592982016 bytes
Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes
Disk /dev/md127: 3000.5 GB, 3000457494528 bytes
Disk /dev/md126: 317.9 GB, 317938532352 bytes
続いてblkid
UUID を表示します。
# blkid
/dev/md126: UUID="fc836940-3c99-4f64-8751-decc9629abc5" TYPE="ext4"
/dev/md0: UUID="2b00d6da-aa0e-4295-a1bb-822f4224815b" TYPE="swap"
/dev/loop0: TYPE="squashfs"
/dev/sda1: UUID="908ccc1f-cb70-4d3e-9d81-43b8e0f519ff" TYPE="ext4"
/dev/sdb1: UUID="3a052c52-593f-47d5-8606-cb818619c50b" TYPE="ext4"
/dev/sde1: LABEL="8GB_BLACK_P" UUID="1CE1-AF11" TYPE="vfat"
md126
そして、次のようにデバイスをマウントできます。
mount /dev/md126 /mnt/tmp
私の(以前は動作していた)fstab ファイルは次のとおりです。
proc /proc proc nodev,noexec,nosuid 0 0
# / was on /dev/md1 during installation
UUID=fc836940-3c99-4f64-8751-decc9629abc5 / ext4 errors=remount-ro 0 1
# swap was on /dev/md0 during installation
UUID=2b00d6da-aa0e-4295-a1bb-822f4224815b none swap sw 0 0
/dev/mapper/3TB_RAID--1--LVM-lvol0 /data ext4 nosuid,auto 0 0
答え1
私も同じ問題を抱えていました。あなたのMDはmd126という番号が付けられていますが、これは通常、起動時に作られたランダムな番号であり、mdadm.conf
では/boot/grub/grub.cfg
、さまざまなものが/dev/md??
との両方を指します。UUID=.....
両方が必要です。マシンが毎回ランダムな md??? 番号で起動する場合、initrd は RAID を見つけるのに苦労し、無限ループに陥ります。
md デバイスを再作成したため、これらの番号を変更する必要がありました。
update-grub
md?
現在実行中のものから数字を取得し/proc/mdstats
、それを/boot/grub/grub.cfg
update-initramfs
md?
ファイルから番号を取得して/etc/mdadm/mdadm.conf
、/boot/initrd___
両方が一致している必要があります。
レスキューディスクから起動する場合、レスキューディスクが生成したランダムな数字/dev/md...
になります。これはmd...
/etc/mdadm/mdadm.conf
私がやったのは、 mdadm --stop /dev/md...
すべてのディスクで実行することです。そして実行しました...
mdadm --assemble --config=/etc/mdadm/mdadm.conf --run
cat /proc/mdstat # To check that the numbers are correct.
update-grub
変更が必要な場合は/etc/mdadm/mdadm.conf
、update-initramfs
fstab には と書いてあるようです。これはおよび/ was on /dev/md1 during installation
に含まれる可能性がある数値です。/boot/grub/grub.cfg
/etc/mdadm/mdadm.conf
答え2
実際には RAID 構成がない (ただし、Dom0/ホスト マシンにはある) Xen 仮想マシンでこのエラーが発生しました。
実際のエラーは RAID ではありませんが、ログを少し上にスクロールする必要があります。私のマシンでは、実際のエラーはディスク (またはネットワーク アダプタ/vif) が存在しないということです。つまり、仮想マシンにデバイスを提供する Xenbus に何らかの問題があるということです。
[ 272.220880] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51714 (local state 1, remote state 1)
[ 272.221595] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51713 (local state 1, remote state 1)
[ 272.222102] xenbus_probe_frontend: Timeout connecting to device: device/vif/0 (local state 1, remote state 1)
ホスト マシンを再起動することで問題を解決しました。その後、作成された xen 仮想マシンは再び正常に起動し、すべてのデバイスが表示されるようになりました。