
Hace algún tiempo configuré RAID0 en nuestro servidor Debian X64 y hasta ahora está funcionando bien, sin problemas. Un día, revisé df -h
y me muestra que el 62% del espacio en disco ya está utilizado.
El RAID está configurado con dos unidades de 2TB y actualmente solo se usan 20GB, pero cuando veo el resultado, dice que el tamaño es 34G. ¿Hay algún problema con mi configuración?
salida de df -H:
df -H
Filesystem Size Used Avail Use% Mounted on
rootfs 456G 7,3G 425G 2% /
udev 11M 0 11M 0% /dev
tmpfs 3,4G 300k 3,4G 1% /run
/dev/disk/by-uuid/ae73679c-c3cd-4a60-bcbb-5b6ddce867f7 456G 7,3G 425G 2% /
tmpfs 5,3M 0 5,3M 0% /run/lock
tmpfs 11G 4,1k 11G 1% /run/shm
/dev/sdc2 529M 41M 461M 9% /boot
// This last one
/dev/md1 34G 20G 13G 62% /media/attachment
salida de mdadm --detail /dev/md1 :
/dev/md1:
Version : 1.2
Creation Time : Wed Apr 29 11:12:21 2015
Raid Level : raid0
Array Size : 33553408 (32.00 GiB 34.36 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Wed Apr 29 11:12:21 2015
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Name : legion03:1 (local to host legion03)
UUID : 68e853a6:7af46176:d9c147c7:6ff87bb0
Events : 0
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
Salida de
fdisk -l | grep Disk
fdisk -l | grep Disk
Disk /dev/md1 doesn't contain a valid partition table
Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x00089ca4
Disk /dev/sdc: 480.1 GB, 480103981056 bytes
Disk identifier: 0x00047ef7
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x000275d2
Disk /dev/md1: 34.4 GB, 34358689792 bytes
Disk identifier: 0x00000000
¿Hay algún problema con mi configuración RAID0? Cualquier tipo de ayuda sería buena. Gracias.
Actualizar
Salida de fdisk -l :
fdisk -l
Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00089ca4
Device Boot Start End Blocks Id System
/dev/sdb1 2048 3907029167 1953513560 fd Linux raid autodetect
Disk /dev/sdc: 480.1 GB, 480103981056 bytes
255 heads, 63 sectors/track, 58369 cylinders, total 937703088 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00047ef7
Device Boot Start End Blocks Id System
/dev/sdc1 2048 33556480 16777216+ 82 Linux swap / Solaris
/dev/sdc2 33558528 34607104 524288+ 83 Linux
/dev/sdc3 34609152 937701040 451545944+ 83 Linux
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000275d2
Device Boot Start End Blocks Id System
/dev/sda1 2048 3907029167 1953513560 fd Linux raid autodetect
Disk /dev/md1: 34.4 GB, 34358689792 bytes
2 heads, 4 sectors/track, 8388352 cylinders, total 67106816 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Disk identifier: 0x00000000
Disk /dev/md1 doesn't contain a valid partition table
Respuesta1
Parece /dev/md1
ser una combinación de dos particiones, cada una de 16 GiB de tamaño (o posiblemente diferentes tamaños que suman 32 GiB). Los resultados fdisk -l
añadidos posteriormente contradicen esto. Sin un historial completo, solo podemos especular qué llevó a la condición actual de /dev/md1
, pero una posibilidad es que las tablas de particiones cambiaron después de que se creó el dispositivo RAID (no he probado si esa secuencia de eventos puede conducir a esta condición).
Para informar solo las tablas de particiones en esos dos discos, use un comando como este:
fdisk -l /dev/sd[ab]
Si desea conservar los 20 GB de datos en esa partición, deberá copiarlos en otro lugar antes de volver a crearlos /dev/md1
.
Las tablas de particiones actuales /dev/sda
son /dev/sdb
apropiadas para una partición RAID en esos discos. Edité mi comentario anterior sobre cómo (y si) particionar esos discos.
Para desmantelar y recrear /dev/md1
puedes usar esta secuencia de comandos:
mdadm --stop /dev/md1
mdadm --create /dev/md1 --level=1 --raid-devices=2 /dev/sd[ab]1
Creo que el primer comando no es destructivo, pero querrás tener /dev/md1
una copia de seguridad de los datos existentes antes de ejecutar el segundo (y, en realidad, antes de ejecutar el primero). Creo mdadm --assemble
que le permitiría revertir el efecto de ese primer comando, pero eso es innecesario una vez que se realiza una copia de seguridad de sus datos.
No he probado esta secuencia de comandos (al menos no recientemente) pero es consistente con lo que recuerdo y mi lectura de la documentación. Tenga cuidado de escribir los nombres de los dispositivos correctamente. Será interesante saber si mdadm --create
se utiliza el tamaño completo de la partición de los dos discos componentes al crear el espejo RAID. Su comentario indicó que desea un espejo RAID; el valor del parámetro --level
sería diferente si quisiera algo más.
También es posible que desee verificar el contenido /etc/mdadm.conf
o /etc/mdadm/mdadm.conf
asegurarse de que no especifiquen valores predeterminados no deseados.