Debian: unidad RAID que muestra que el 62% del disco ya está en uso a pesar de que queda mucho

Debian: unidad RAID que muestra que el 62% del disco ya está en uso a pesar de que queda mucho

Hace algún tiempo configuré RAID0 en nuestro servidor Debian X64 y hasta ahora está funcionando bien, sin problemas. Un día, revisé df -hy me muestra que el 62% del espacio en disco ya está utilizado.

El RAID está configurado con dos unidades de 2TB y actualmente solo se usan 20GB, pero cuando veo el resultado, dice que el tamaño es 34G. ¿Hay algún problema con mi configuración?

salida de df -H:

df -H
Filesystem                                              Size  Used Avail Use% Mounted on
rootfs                                                  456G  7,3G  425G   2% /
udev                                                     11M     0   11M   0% /dev
tmpfs                                                   3,4G  300k  3,4G   1% /run
/dev/disk/by-uuid/ae73679c-c3cd-4a60-bcbb-5b6ddce867f7  456G  7,3G  425G   2% /
tmpfs                                                   5,3M     0  5,3M   0% /run/lock
tmpfs                                                    11G  4,1k   11G   1% /run/shm
/dev/sdc2                                               529M   41M  461M   9% /boot
// This last one   
 /dev/md1                                                 34G   20G   13G  62% /media/attachment

salida de mdadm --detail /dev/md1 :

/dev/md1:
        Version : 1.2
  Creation Time : Wed Apr 29 11:12:21 2015
     Raid Level : raid0
     Array Size : 33553408 (32.00 GiB 34.36 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Wed Apr 29 11:12:21 2015
          State : clean 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 512K

           Name : legion03:1  (local to host legion03)
           UUID : 68e853a6:7af46176:d9c147c7:6ff87bb0
         Events : 0

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1

Salida de

fdisk -l | grep Disk

fdisk -l | grep Disk
Disk /dev/md1 doesn't contain a valid partition table
Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x00089ca4
Disk /dev/sdc: 480.1 GB, 480103981056 bytes
Disk identifier: 0x00047ef7
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x000275d2
Disk /dev/md1: 34.4 GB, 34358689792 bytes
Disk identifier: 0x00000000

¿Hay algún problema con mi configuración RAID0? Cualquier tipo de ayuda sería buena. Gracias.

Actualizar

Salida de fdisk -l :

fdisk -l 

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00089ca4

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048  3907029167  1953513560   fd  Linux raid autodetect

Disk /dev/sdc: 480.1 GB, 480103981056 bytes
255 heads, 63 sectors/track, 58369 cylinders, total 937703088 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00047ef7

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1            2048    33556480    16777216+  82  Linux swap / Solaris
/dev/sdc2        33558528    34607104      524288+  83  Linux
/dev/sdc3        34609152   937701040   451545944+  83  Linux

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000275d2

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1            2048  3907029167  1953513560   fd  Linux raid autodetect

Disk /dev/md1: 34.4 GB, 34358689792 bytes
2 heads, 4 sectors/track, 8388352 cylinders, total 67106816 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Disk identifier: 0x00000000

Disk /dev/md1 doesn't contain a valid partition table

Respuesta1

Parece /dev/md1ser una combinación de dos particiones, cada una de 16 GiB de tamaño (o posiblemente diferentes tamaños que suman 32 GiB). Los resultados fdisk -lañadidos posteriormente contradicen esto. Sin un historial completo, solo podemos especular qué llevó a la condición actual de /dev/md1, pero una posibilidad es que las tablas de particiones cambiaron después de que se creó el dispositivo RAID (no he probado si esa secuencia de eventos puede conducir a esta condición).

Para informar solo las tablas de particiones en esos dos discos, use un comando como este:

fdisk -l /dev/sd[ab]

Si desea conservar los 20 GB de datos en esa partición, deberá copiarlos en otro lugar antes de volver a crearlos /dev/md1.

Las tablas de particiones actuales /dev/sdason /dev/sdbapropiadas para una partición RAID en esos discos. Edité mi comentario anterior sobre cómo (y si) particionar esos discos.

Para desmantelar y recrear /dev/md1puedes usar esta secuencia de comandos:

mdadm --stop /dev/md1
mdadm --create /dev/md1 --level=1 --raid-devices=2 /dev/sd[ab]1

Creo que el primer comando no es destructivo, pero querrás tener /dev/md1una copia de seguridad de los datos existentes antes de ejecutar el segundo (y, en realidad, antes de ejecutar el primero). Creo mdadm --assembleque le permitiría revertir el efecto de ese primer comando, pero eso es innecesario una vez que se realiza una copia de seguridad de sus datos.

No he probado esta secuencia de comandos (al menos no recientemente) pero es consistente con lo que recuerdo y mi lectura de la documentación. Tenga cuidado de escribir los nombres de los dispositivos correctamente. Será interesante saber si mdadm --createse utiliza el tamaño completo de la partición de los dos discos componentes al crear el espejo RAID. Su comentario indicó que desea un espejo RAID; el valor del parámetro --levelsería diferente si quisiera algo más.

También es posible que desee verificar el contenido /etc/mdadm.confo /etc/mdadm/mdadm.confasegurarse de que no especifiquen valores predeterminados no deseados.

información relacionada