Error de disco del sistema de servidor doméstico MDADM RAID1: inicio incremental de matrices raid mdadm: Crear usuario raíz no encontrado

Error de disco del sistema de servidor doméstico MDADM RAID1: inicio incremental de matrices raid mdadm: Crear usuario raíz no encontrado

No estoy seguro de qué más comprobar. Todo lo que aparece a continuación me parece correcto, pero el sistema se bloquea al arrancar. Este es un servidor doméstico con cuatro discos alojados en un Dell OP620. Cada par de discos se ensamblan como RAID1: /y data. La matriz fallida es /, de ahí la imposibilidad de iniciar.

El error completo, que se repite indefinidamente en la consola, es:

incrementally starting raid arrays
mdadm: Create user root not found 
mdadm: create group disk not found 
incrementally started raid arrays

Una captura de pantalla similar está disponibleaquí. Este sistema estaba funcionando bien hasta el último reinicio. La matriz se ensambla bien desde un USB de rescate de Puppy Linux:

mdadm --assemble --scan

fdiiskmuestra los discos disponibles:

# fdisk -l|grep GB
Disk /dev/sda: 320.1 GB, 320072933376 bytes
Disk /dev/sdb: 320.1 GB, 320072933376 bytes
Disk /dev/sdc: 3000.6 GB, 3000592982016 bytes
Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes
Disk /dev/md127: 3000.5 GB, 3000457494528 bytes
Disk /dev/md126: 317.9 GB, 317938532352 bytes

Seguido de blkidmostrar los UUID:

# blkid
/dev/md126: UUID="fc836940-3c99-4f64-8751-decc9629abc5" TYPE="ext4"
/dev/md0: UUID="2b00d6da-aa0e-4295-a1bb-822f4224815b" TYPE="swap"
/dev/loop0: TYPE="squashfs"
/dev/sda1: UUID="908ccc1f-cb70-4d3e-9d81-43b8e0f519ff" TYPE="ext4"
/dev/sdb1: UUID="3a052c52-593f-47d5-8606-cb818619c50b" TYPE="ext4"
/dev/sde1: LABEL="8GB_BLACK_P" UUID="1CE1-AF11" TYPE="vfat"

y puedo montar el md126dispositivo con:

mount /dev/md126 /mnt/tmp

Mi archivo fstab (que anteriormente funcionaba) es:

proc            /proc           proc    nodev,noexec,nosuid 0       0
# / was on /dev/md1 during installation
UUID=fc836940-3c99-4f64-8751-decc9629abc5 /               ext4    errors=remount-ro 0       1
# swap was on /dev/md0 during installation
UUID=2b00d6da-aa0e-4295-a1bb-822f4224815b none            swap    sw              0       0

/dev/mapper/3TB_RAID--1--LVM-lvol0      /data   ext4    nosuid,auto     0 0

Respuesta1

Yo también tuve este problema. Noté que su md tiene el número md126, que generalmente es un número aleatorio creado en el momento del arranque, no el número demdadm.conf

En /boot/grub/grub.cfg, varias cosas se refieren a ambos /dev/md??yUUID=.....

Ambos son necesarios. ¿Si la máquina arranca con un md aleatorio? número cada vez, initrd tendrá dificultades para encontrar la incursión y entrará en un bucle sin fin.

Tuve que cambiar estos números porque recreé mi dispositivo md.

update-grubtoma el md?número de lo que se está ejecutando actualmente /proc/mdstatsy lo coloca en/boot/grub/grub.cfg

update-initramfstoma el md?número del /etc/mdadm/mdadm.confarchivo y lo coloca en /boot/initrd___ Ambos tienen que coincidir.

Cuando arranca a través de un disco de rescate, /dev/md...es cualquier número aleatorio que forme el disco de rescate. Esto es diferente al md...número en/etc/mdadm/mdadm.conf

Lo que hice fue ejecutar mdadm --stop /dev/md...en todos los discos. Luego corrió...

mdadm --assemble --config=/etc/mdadm/mdadm.conf --run
cat /proc/mdstat   # To check that the numbers are correct.
update-grub

Si necesitabas cambiar /etc/mdadm/mdadm.conf, ejecuta tambiénupdate-initramfs

Parece que tu fstab dice / was on /dev/md1 during installation; ese es el número que puede estar en /boot/grub/grub.cfgy /etc/mdadm/mdadm.conf.

Respuesta2

Recibí este error en la máquina virtual Xen que en realidad no tiene ninguna configuración RAID (pero la máquina Dom0/host sí la tiene).

El error real no es el RAID, pero es necesario desplazar el registro un poco hacia arriba, y en mi máquina el error real es que no hay discos (o adaptador de red/vif) presentes, por lo que hay algún problema con el suministro de Xenbus. los dispositivos a la máquina virtual:

 [  272.220880] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51714 (local state 1, remote state 1)
 [  272.221595] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51713 (local state 1, remote state 1)
 [  272.222102] xenbus_probe_frontend: Timeout connecting to device: device/vif/0 (local state 1, remote state 1)

Resolví el problema reiniciando la máquina host. Después de eso, las máquinas virtuales xen creadas se iniciaron normalmente nuevamente y vieron todos los dispositivos.

información relacionada