Ich bin nicht sicher, was ich sonst noch prüfen soll. Alles unten sieht für mich vernünftig aus, aber das System hängt beim Booten. Dies ist ein Heimserver mit vier Festplatten, die in einen Dell OP620 gequetscht sind. Jedes Festplattenpaar ist als RAID1 zusammengestellt: /
und data
. Das ausgefallene Array ist /
, daher die Unfähigkeit zu booten.
Der vollständige Fehler, der auf der Konsole unbegrenzt wiederholt wird, lautet:
incrementally starting raid arrays
mdadm: Create user root not found
mdadm: create group disk not found
incrementally started raid arrays
Ein ähnlicher Screenshot ist verfügbarHier. Dieses System lief bis zum letzten Neustart einwandfrei. Das Array lässt sich problemlos von einem Puppy Linux-Rettungs-USB-Stick zusammenbauen:
mdadm --assemble --scan
fdiisk
zeigt die verfügbaren Datenträger an:
# fdisk -l|grep GB
Disk /dev/sda: 320.1 GB, 320072933376 bytes
Disk /dev/sdb: 320.1 GB, 320072933376 bytes
Disk /dev/sdc: 3000.6 GB, 3000592982016 bytes
Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes
Disk /dev/md127: 3000.5 GB, 3000457494528 bytes
Disk /dev/md126: 317.9 GB, 317938532352 bytes
Gefolgt von blkid
der Anzeige der UUIDs:
# blkid
/dev/md126: UUID="fc836940-3c99-4f64-8751-decc9629abc5" TYPE="ext4"
/dev/md0: UUID="2b00d6da-aa0e-4295-a1bb-822f4224815b" TYPE="swap"
/dev/loop0: TYPE="squashfs"
/dev/sda1: UUID="908ccc1f-cb70-4d3e-9d81-43b8e0f519ff" TYPE="ext4"
/dev/sdb1: UUID="3a052c52-593f-47d5-8606-cb818619c50b" TYPE="ext4"
/dev/sde1: LABEL="8GB_BLACK_P" UUID="1CE1-AF11" TYPE="vfat"
und ich kann das md126
Gerät mounten mit:
mount /dev/md126 /mnt/tmp
Meine (bisher funktionierende) fstab-Datei ist:
proc /proc proc nodev,noexec,nosuid 0 0
# / was on /dev/md1 during installation
UUID=fc836940-3c99-4f64-8751-decc9629abc5 / ext4 errors=remount-ro 0 1
# swap was on /dev/md0 during installation
UUID=2b00d6da-aa0e-4295-a1bb-822f4224815b none swap sw 0 0
/dev/mapper/3TB_RAID--1--LVM-lvol0 /data ext4 nosuid,auto 0 0
Antwort1
Ich hatte gerade auch dieses Problem. Mir ist aufgefallen, dass Ihr MD die Nummer md126 hat, was normalerweise eine zufällige Nummer ist, die beim Booten erstellt wird, nicht die Nummer vonmdadm.conf
In /boot/grub/grub.cfg
beziehen sich verschiedene Dinge sowohl auf /dev/md??
als auchUUID=.....
Beides ist erforderlich. Wenn die Maschine jedes Mal mit einer zufälligen md???-Nummer hochfährt, hat initrd Probleme, das Raid zu finden, und gerät in eine Endlosschleife.
Ich musste diese Nummern ändern, weil ich mein MD-Gerät neu erstellt habe.
update-grub
greift die md?
Nummer von dem ab, was gerade läuft, /proc/mdstats
und fügt sie ein in/boot/grub/grub.cfg
update-initramfs
holt sich die md?
Nummer aus der /etc/mdadm/mdadm.conf
Datei und fügt sie in /boot/initrd___
„Beide müssen übereinstimmen“ ein.
Wenn Sie über eine Rettungsdiskette booten, /dev/md...
ist dies einfach die zufällige Zahl, die die Rettungsdiskette bildet. Diese unterscheidet sich von der md...
Zahl in/etc/mdadm/mdadm.conf
mdadm --stop /dev/md...
Ich habe es auf allen Festplatten ausgeführt . Dann lief ...
mdadm --assemble --config=/etc/mdadm/mdadm.conf --run
cat /proc/mdstat # To check that the numbers are correct.
update-grub
Wenn Sie ändern müssen /etc/mdadm/mdadm.conf
, führen Sie auchupdate-initramfs
Sieht aus, als ob in Ihrer fstab steht ; das ist die Nummer, die in und / was on /dev/md1 during installation
enthalten sein könnte ./boot/grub/grub.cfg
/etc/mdadm/mdadm.conf
Antwort2
Ich habe diesen Fehler auf einer virtuellen Xen-Maschine erhalten, die tatsächlich über keine RAID-Konfiguration verfügt (die Dom0/Host-Maschine jedoch schon).
Der eigentliche Fehler liegt nicht beim RAID, aber Sie müssen im Protokoll etwas nach oben scrollen und auf meinem Computer besteht der eigentliche Fehler darin, dass keine Festplatten (oder Netzwerkadapter/VIF) vorhanden sind. Es besteht also ein Problem mit dem Xenbus, der die Geräte für die virtuelle Maschine bereitstellt:
[ 272.220880] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51714 (local state 1, remote state 1)
[ 272.221595] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51713 (local state 1, remote state 1)
[ 272.222102] xenbus_probe_frontend: Timeout connecting to device: device/vif/0 (local state 1, remote state 1)
Ich habe das Problem gelöst, indem ich den Hostcomputer neu gestartet habe. Danach wurden die erstellten virtuellen Xen-Maschinen wieder normal gestartet und alle Geräte erkannt.