MDADM RAID1 ホーム サーバー システム ディスク エラー: RAID アレイを増分的に開始 mdadm: 作成ユーザー ルートが見つかりません

MDADM RAID1 ホーム サーバー システム ディスク エラー: RAID アレイを増分的に開始 mdadm: 作成ユーザー ルートが見つかりません

他に何をチェックすればよいかわかりません。以下はすべて正常のように見えますが、システムが起動時にハングします。これは、Dell OP620 に 4 つのディスクが詰め込まれたホーム サーバーです。ディスクの各ペアは RAID1 として組み立てられています:/およびdata。障害が発生したアレイは である/ため、起動できません。

コンソール上で無限に繰り返されるエラーの全文は次のとおりです。

incrementally starting raid arrays
mdadm: Create user root not found 
mdadm: create group disk not found 
incrementally started raid arrays

同様のスクリーンショットが利用可能こここのシステムは最後の再起動まで正常に動作していました。アレイは Puppy Linux レスキュー USB から正常に組み立てられます。

mdadm --assemble --scan

fdiisk利用可能なディスクを表示します:

# fdisk -l|grep GB
Disk /dev/sda: 320.1 GB, 320072933376 bytes
Disk /dev/sdb: 320.1 GB, 320072933376 bytes
Disk /dev/sdc: 3000.6 GB, 3000592982016 bytes
Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes
Disk /dev/md127: 3000.5 GB, 3000457494528 bytes
Disk /dev/md126: 317.9 GB, 317938532352 bytes

続いてblkidUUID を表示します。

# blkid
/dev/md126: UUID="fc836940-3c99-4f64-8751-decc9629abc5" TYPE="ext4"
/dev/md0: UUID="2b00d6da-aa0e-4295-a1bb-822f4224815b" TYPE="swap"
/dev/loop0: TYPE="squashfs"
/dev/sda1: UUID="908ccc1f-cb70-4d3e-9d81-43b8e0f519ff" TYPE="ext4"
/dev/sdb1: UUID="3a052c52-593f-47d5-8606-cb818619c50b" TYPE="ext4"
/dev/sde1: LABEL="8GB_BLACK_P" UUID="1CE1-AF11" TYPE="vfat"

md126そして、次のようにデバイスをマウントできます。

mount /dev/md126 /mnt/tmp

私の(以前は動作していた)fstab ファイルは次のとおりです。

proc            /proc           proc    nodev,noexec,nosuid 0       0
# / was on /dev/md1 during installation
UUID=fc836940-3c99-4f64-8751-decc9629abc5 /               ext4    errors=remount-ro 0       1
# swap was on /dev/md0 during installation
UUID=2b00d6da-aa0e-4295-a1bb-822f4224815b none            swap    sw              0       0

/dev/mapper/3TB_RAID--1--LVM-lvol0      /data   ext4    nosuid,auto     0 0

答え1

私も同じ問題を抱えていました。あなたのMDはmd126という番号が付けられていますが、これは通常、起動時に作られたランダムな番号であり、mdadm.conf

では/boot/grub/grub.cfg、さまざまなものが/dev/md??との両方を指します。UUID=.....

両方が必要です。マシンが毎回ランダムな md??? 番号で起動する場合、initrd は RAID を見つけるのに苦労し、無限ループに陥ります。

md デバイスを再作成したため、これらの番号を変更する必要がありました。

update-grubmd?現在実行中のものから数字を取得し/proc/mdstats、それを/boot/grub/grub.cfg

update-initramfsmd?ファイルから番号を取得して/etc/mdadm/mdadm.conf/boot/initrd___ 両方が一致している必要があります。

レスキューディスクから起動する場合、レスキューディスクが生成したランダムな数字/dev/md...になります。これはmd.../etc/mdadm/mdadm.conf

私がやったのは、 mdadm --stop /dev/md...すべてのディスクで実行することです。そして実行しました...

mdadm --assemble --config=/etc/mdadm/mdadm.conf --run
cat /proc/mdstat   # To check that the numbers are correct.
update-grub

変更が必要な場合は/etc/mdadm/mdadm.confupdate-initramfs

fstab には と書いてあるようです。これはおよび/ was on /dev/md1 during installationに含まれる可能性がある数値です。/boot/grub/grub.cfg/etc/mdadm/mdadm.conf

答え2

実際には RAID 構成がない (ただし、Dom0/ホスト マシンにはある) Xen 仮想マシンでこのエラーが発生しました。

実際のエラーは RAID ではありませんが、ログを少し上にスクロールする必要があります。私のマシンでは、実際のエラーはディスク (またはネットワーク アダプタ/vif) が存在しないということです。つまり、仮想マシンにデバイスを提供する Xenbus に何らかの問題があるということです。

 [  272.220880] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51714 (local state 1, remote state 1)
 [  272.221595] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51713 (local state 1, remote state 1)
 [  272.222102] xenbus_probe_frontend: Timeout connecting to device: device/vif/0 (local state 1, remote state 1)

ホスト マシンを再起動することで問題を解決しました。その後、作成された xen 仮想マシンは再び正常に起動し、すべてのデバイスが表示されるようになりました。

関連情報