
Hoy tuve problemas para acceder al recurso compartido SMB en mi Linkstation. Mi NAS tiene dos discos duros, configurados como raid0. Esta incursión se montó en /mnt/array1/intern, la carpeta que me falta.
Mi primer problema es, realmente no sé, dónde buscar algunos informes de errores.
Comencemos con /var/log/messages, dice:
/usr/local/bin/hdd_check_normal.sh: mount -t xfs /dev/md2 /mnt/array1 failed.
De acuerdo. Busqué en Google este mensaje e intenté lo siguiente:
cat /proc/mdstat
md2 : inactive sda6[1](S)
1938311476 blocks super 1.2
md1 : active raid1 sda2[1]
4999156 blocks super 1.2 [2/1] [_U]
md10 : active raid1 sda5[1]
1000436 blocks super 1.2 [2/1] [_U]
md0 : active raid1 sda1[1]
1000384 blocks [2/1] [_U]
unused devices: <none>
OK... de df - Hola, sabes, md0 es mi partición de arranque y md1 es la partición raíz. Supongo que md2 es el raid que me falta, pero ¿para qué sirve el raid10? Sin embargo, intenté actualizar la configuración de mdadm y volver a ensamblar las incursiones con:
mdadm --examine --scan > /etc/mdadm.conf
mdadm --assemble --scan -v
Esto genera un par de mensajes de error, como:
cannot open device /dev/md/1: Device or resource busy
mdadm: /dev/sda2 has wrong uuid.
mdadm: no RAID superblock on /dev/mtdblock0
para sda, sda1, sda2, md/1, md/2 e hijo en adelante. Son alrededor de 50 líneas, no quiero publicarlas todas. Lo que no entiendo es "uuid incorrecto". ¿No agregué recientemente los UUID actuales a mdadm.conf?
De vuelta a mi /var/log/messages encontré un script. Intenté iniciarlos manualmente, esperando recibir más mensajes de error:
/etc/init.d/start_data_array.sh
Me da un montón de mensajes, los más importantes son: en mi humilde opinión:
mount: mounting /dev/md2 on /mnt/array1 failed: Input/output error
umount: forced umount of /mnt/array1 failed!
umount: cannot umount /mnt/array1: Invalid argument
Entonces, el problema que tengo es, hasta donde yo sé, algo anda mal con mi matriz raid0 llamada md2.
La pregunta principal es: ¿Qué pasa? ¿Cómo activo /dev/md2? (mdadm --detail /dev/md2 indica "¿el dispositivo no está activo?) ¿Tengo que volver a crear manualmente la matriz? ¿Perderé mis datos?
El error de que este dispositivo no está activo me parece algo genérico, al buscarlo encuentro muchos posts y consejos que no están realmente relacionados con mi problema.
Se agradece cualquier ayuda, ¡muchas gracias!
// ACTUALIZAR
Se está volviendo extraño... para mí. Esto es lo que dice fdisk -l para /sda y /sda6:
root@OoompaLoompa:~# fdisk -l /dev/sda
Disk /dev/sda: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 243202 1953514583+ ee EFI GPT
Disk /dev/sda6: 1984.8 GB, 1984832000000 bytes
255 heads, 63 sectors/track, 241308 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk /dev/sda6 doesn't contain a valid partition table
/sda6 no tiene tabla de particiones, porque supongo que es parte de mi matriz. /sda tiene una tabla de particiones, pero no un superbloque:
mdadm --examine /dev/sda
mdadm: No md superblock detected on /dev/sda
Pero es uno de los discos duros de 2 GB. Estoy realmente confundido. Este es el resultado de --examine para ambos dispositivos:
/dev/sda1:
mdadm: No md superblock detected on /dev/sda.
/dev/sda6:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 41e67f06:3b93cda0:46ac3bd7:96702dae
Name : UNINSPECT-EMC36:2
Creation Time : Thu Oct 18 01:43:39 2012
Raid Level : raid0
Raid Devices : 2
Avail Dev Size : 3876622952 (1848.52 GiB 1984.83 GB)
Used Dev Size : 0
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : clean
Device UUID : 1dd1c5c5:220d14bf:5b0b1fc5:dbcc3f9c
Update Time : Thu Oct 18 01:43:39 2012
Checksum : 5d34dcac - correct
Events : 0
Chunk Size : 512K
Device Role : Active device 1
Array State : AA ('A' == active, '.' == missing)
Todavía estoy un poco confundido. ¿Debería /sda ser la partición de arranque? Supongo que la solución es recrear de alguna manera el superbloque y luego volver a ensamblar /md2.
Aún así, cualquier ayuda es muy apreciada :)
Respuesta1
Tienes dos unidades unidas en una franja raid0. Una unidad /dev/sda y una partición raid /dev/sda6 se ven bien. ¿Qué pasó con el segundo disco? Sospecho que la segunda unidad está dañada. ¿Aparece si ejecutas... fdisk -l?