MDADM RAID1 Home Server 系統磁碟錯誤:增量啟動 raid 陣列 mdadm:找不到建立使用者 root

MDADM RAID1 Home Server 系統磁碟錯誤:增量啟動 raid 陣列 mdadm:找不到建立使用者 root

我不確定還需要檢查什麼。下面的一切對我來說看起來都很正常,但係統在啟動時掛起。這是一台家庭伺服器,在 Dell OP620 中塞滿了四個磁碟。每對磁碟都組裝為 RAID1:/data。故障陣列為/,因此無法啟動。

在控制台上無限重複的完整錯誤是:

incrementally starting raid arrays
mdadm: Create user root not found 
mdadm: create group disk not found 
incrementally started raid arrays

類似的螢幕截圖可用這裡。該系統在上次重新啟動之前一直運作良好。此陣列可以透過 Puppy Linux 救援 USB 正常組裝:

mdadm --assemble --scan

fdiisk顯示可用磁碟:

# fdisk -l|grep GB
Disk /dev/sda: 320.1 GB, 320072933376 bytes
Disk /dev/sdb: 320.1 GB, 320072933376 bytes
Disk /dev/sdc: 3000.6 GB, 3000592982016 bytes
Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes
Disk /dev/md127: 3000.5 GB, 3000457494528 bytes
Disk /dev/md126: 317.9 GB, 317938532352 bytes

接下來blkid顯示 UUID:

# blkid
/dev/md126: UUID="fc836940-3c99-4f64-8751-decc9629abc5" TYPE="ext4"
/dev/md0: UUID="2b00d6da-aa0e-4295-a1bb-822f4224815b" TYPE="swap"
/dev/loop0: TYPE="squashfs"
/dev/sda1: UUID="908ccc1f-cb70-4d3e-9d81-43b8e0f519ff" TYPE="ext4"
/dev/sdb1: UUID="3a052c52-593f-47d5-8606-cb818619c50b" TYPE="ext4"
/dev/sde1: LABEL="8GB_BLACK_P" UUID="1CE1-AF11" TYPE="vfat"

我可以md126透過以下方式安裝設備:

mount /dev/md126 /mnt/tmp

我的(以前工作的)fstab 檔案是:

proc            /proc           proc    nodev,noexec,nosuid 0       0
# / was on /dev/md1 during installation
UUID=fc836940-3c99-4f64-8751-decc9629abc5 /               ext4    errors=remount-ro 0       1
# swap was on /dev/md0 during installation
UUID=2b00d6da-aa0e-4295-a1bb-822f4224815b none            swap    sw              0       0

/dev/mapper/3TB_RAID--1--LVM-lvol0      /data   ext4    nosuid,auto     0 0

答案1

我剛剛也遇到了這個問題。我注意到你的 md 編號為 md126,這通常是啟動時產生的隨機數,而不是來自mdadm.conf

在 中/boot/grub/grub.cfg,各種事物都指/dev/md??UUID=.....

兩者都需要。如果機器是用隨機 md 啟動的?每次,initrd 都會努力尋找 raid 並陷入無限循環。

我必須更改這些數字,因為我重新建立了我的 md 裝置。

update-grubmd?從目前正在運行的內容中獲取數字/proc/mdstats並將其放入/boot/grub/grub.cfg

update-initramfsmd?從文件中獲取數字/etc/mdadm/mdadm.conf並將其放入/boot/initrd___ 兩者都必須匹配。

當您通過救援磁碟啟動時,/dev/md...它就是救援磁碟組成的隨機數。這與md...中的數字不同/etc/mdadm/mdadm.conf

我所做的是 mdadm --stop /dev/md...在所有磁碟上運行。然後跑了...

mdadm --assemble --config=/etc/mdadm/mdadm.conf --run
cat /proc/mdstat   # To check that the numbers are correct.
update-grub

如果你需要改變/etc/mdadm/mdadm.conf,也要運行update-initramfs

看起來你的 fstab 說/ was on /dev/md1 during installation;這就是/boot/grub/grub.cfg和中可能存在的數字/etc/mdadm/mdadm.conf

答案2

我在實際上沒有任何 RAID 配置(但 Dom0/主機有)的 Xen 虛擬機器上遇到此錯誤。

實際錯誤不是 RAID,但您需要將日誌向上滾動一點,在我的機器上,實際錯誤是不存在磁碟(或網路適配器/vif),因此 Xenbus 提供的存在一些問題虛擬機器的設備:

 [  272.220880] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51714 (local state 1, remote state 1)
 [  272.221595] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51713 (local state 1, remote state 1)
 [  272.222102] xenbus_probe_frontend: Timeout connecting to device: device/vif/0 (local state 1, remote state 1)

我透過重新啟動主機解決了這個問題。之後創建的xen虛擬機器再次正常啟動,並看到所有設備。

相關內容