raid10: no puedo leer el superbloque

raid10: no puedo leer el superbloque

Hasta hace unos minutos tenía un dispositivo raid 10 en funcionamiento ( /dev/md0) que constaba de 4 discos de 3 TB.

Mi sistema operativo (servidor ubuntu sin cabeza 14.04.1 lts) está montado en un SSD de 120 GB separado del raid.

Estaba leyendo sobre noatime y que es bueno para SSD (soy nuevo en SSD), así que lo edité /etc/fstabpara agregarlo noatimea mi entrada de SSD.

Luego intenté reiniciar el servidor sin cabeza y se bloqueaba durante el arranque porque no podía montar mi raid /dev/md0bajo/mnt/raiddisk:

The disk drive for /mnt/raiddisk is not ready yet or not present.
Continue to wait, or press S to skip mounting or M for manual recovery.

Ahora he arrancado omitiendo el montaje del dispositivo raid.

cat /proc/mdstatdice:

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdd1[3](S) sdc1[2](S) sdb1[1](S)
8790402048 blocks super 1.2

unused devices: <none> 

Falta un disco en la lista anterior, también debería haber sde

Intentar montar manualmente usando sudo mount /dev/md0 /mnt/raiddiskda el siguiente resultado:

mount: /dev/md0: can't read superblock

Después de leer un poco, probé:

sudo mdadm --assemble /dev/md0 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1

Y recibí este mensaje:

mdadm: /dev/sdb1 is busy - skipping
mdadm: /dev/sdc1 is busy - skipping
mdadm: /dev/sdd1 is busy - skipping
mdadm: /dev/md0 is already in use.

Así que me detuve /dev/md0y lo intenté de nuevo y esta vez parece haber funcionado:

mdadm: /dev/md0 has been started with 4 drives.

Ahora cat /proc/mdstatda:

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid10 sda1[0] sdd1[3] sdc1[2] sdb1[1]
5860267008 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

unused devices: <none>

Ahora pude montarlo en /mnt/raiddisk.

Al intentar reiniciarlo nuevamente, se bloquea durante el arranque porque no puede montar el dispositivo raid.

No estoy seguro de qué más probar o comprobar, ya que soy un novato en raids.

Respuesta1

Pude arreglarlo.

Al inspeccionar la salida sudo parted -ly cat /proc/mdstattambién mirar dentro, /etc/mdadm/mdadm.confnoté que las etiquetas de los dispositivos para los discos duros parecen haber cambiado después de intentar noatimeagregar /etc/fstab.

Mi ssd solía tener la etiqueta /dev/sdaque luego se cambió a/dev/sde

Por lo tanto, md no pudo ensamblar automáticamente la matriz raid al arrancar porque no pudo agregarla /dev/sdea la raid ya que ahora era el ssd para la partición de arranque.

Al actualizar mdadm.confy agregar las etiquetas de disco actualizadas y luego ejecutar, update-initramfs -upude reiniciar normalmente y la matriz raid está ensamblada y montada.

No tengo idea de por qué simplemente agregar noatimea mi entrada ssd /etc/fstabhizo esto.

noatimeDesde entonces me he retirado /etc/fstabporque tengo miedo de que vuelva a suceder.

información relacionada