No estoy seguro de qué más comprobar. Todo lo que aparece a continuación me parece correcto, pero el sistema se bloquea al arrancar. Este es un servidor doméstico con cuatro discos alojados en un Dell OP620. Cada par de discos se ensamblan como RAID1: /
y data
. La matriz fallida es /
, de ahí la imposibilidad de iniciar.
El error completo, que se repite indefinidamente en la consola, es:
incrementally starting raid arrays
mdadm: Create user root not found
mdadm: create group disk not found
incrementally started raid arrays
Una captura de pantalla similar está disponibleaquí. Este sistema estaba funcionando bien hasta el último reinicio. La matriz se ensambla bien desde un USB de rescate de Puppy Linux:
mdadm --assemble --scan
fdiisk
muestra los discos disponibles:
# fdisk -l|grep GB
Disk /dev/sda: 320.1 GB, 320072933376 bytes
Disk /dev/sdb: 320.1 GB, 320072933376 bytes
Disk /dev/sdc: 3000.6 GB, 3000592982016 bytes
Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes
Disk /dev/md127: 3000.5 GB, 3000457494528 bytes
Disk /dev/md126: 317.9 GB, 317938532352 bytes
Seguido de blkid
mostrar los UUID:
# blkid
/dev/md126: UUID="fc836940-3c99-4f64-8751-decc9629abc5" TYPE="ext4"
/dev/md0: UUID="2b00d6da-aa0e-4295-a1bb-822f4224815b" TYPE="swap"
/dev/loop0: TYPE="squashfs"
/dev/sda1: UUID="908ccc1f-cb70-4d3e-9d81-43b8e0f519ff" TYPE="ext4"
/dev/sdb1: UUID="3a052c52-593f-47d5-8606-cb818619c50b" TYPE="ext4"
/dev/sde1: LABEL="8GB_BLACK_P" UUID="1CE1-AF11" TYPE="vfat"
y puedo montar el md126
dispositivo con:
mount /dev/md126 /mnt/tmp
Mi archivo fstab (que anteriormente funcionaba) es:
proc /proc proc nodev,noexec,nosuid 0 0
# / was on /dev/md1 during installation
UUID=fc836940-3c99-4f64-8751-decc9629abc5 / ext4 errors=remount-ro 0 1
# swap was on /dev/md0 during installation
UUID=2b00d6da-aa0e-4295-a1bb-822f4224815b none swap sw 0 0
/dev/mapper/3TB_RAID--1--LVM-lvol0 /data ext4 nosuid,auto 0 0
Respuesta1
Yo también tuve este problema. Noté que su md tiene el número md126, que generalmente es un número aleatorio creado en el momento del arranque, no el número demdadm.conf
En /boot/grub/grub.cfg
, varias cosas se refieren a ambos /dev/md??
yUUID=.....
Ambos son necesarios. ¿Si la máquina arranca con un md aleatorio? número cada vez, initrd tendrá dificultades para encontrar la incursión y entrará en un bucle sin fin.
Tuve que cambiar estos números porque recreé mi dispositivo md.
update-grub
toma el md?
número de lo que se está ejecutando actualmente /proc/mdstats
y lo coloca en/boot/grub/grub.cfg
update-initramfs
toma el md?
número del /etc/mdadm/mdadm.conf
archivo y lo coloca en /boot/initrd___
Ambos tienen que coincidir.
Cuando arranca a través de un disco de rescate, /dev/md...
es cualquier número aleatorio que forme el disco de rescate. Esto es diferente al md...
número en/etc/mdadm/mdadm.conf
Lo que hice fue ejecutar mdadm --stop /dev/md...
en todos los discos. Luego corrió...
mdadm --assemble --config=/etc/mdadm/mdadm.conf --run
cat /proc/mdstat # To check that the numbers are correct.
update-grub
Si necesitabas cambiar /etc/mdadm/mdadm.conf
, ejecuta tambiénupdate-initramfs
Parece que tu fstab dice / was on /dev/md1 during installation
; ese es el número que puede estar en /boot/grub/grub.cfg
y /etc/mdadm/mdadm.conf
.
Respuesta2
Recibí este error en la máquina virtual Xen que en realidad no tiene ninguna configuración RAID (pero la máquina Dom0/host sí la tiene).
El error real no es el RAID, pero es necesario desplazar el registro un poco hacia arriba, y en mi máquina el error real es que no hay discos (o adaptador de red/vif) presentes, por lo que hay algún problema con el suministro de Xenbus. los dispositivos a la máquina virtual:
[ 272.220880] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51714 (local state 1, remote state 1)
[ 272.221595] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51713 (local state 1, remote state 1)
[ 272.222102] xenbus_probe_frontend: Timeout connecting to device: device/vif/0 (local state 1, remote state 1)
Resolví el problema reiniciando la máquina host. Después de eso, las máquinas virtuales xen creadas se iniciaron normalmente nuevamente y vieron todos los dispositivos.