
Acabo de configurar un RAID 10 en un servidor antiguo con 4 discos duros con el instalador centos7, pero estoy muy confundido acerca del resultado.
Aquí está el resultado de /proc/mdstat
Personalities : [raid10] [raid1]
md123 : active raid1 sda4[0] sdb4[1] sdc4[3] sdd4[2]
1049536 blocks super 1.0 [4/4] [UUUU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md124 : active raid10 sda1[0] sdb1[1] sdd1[2] sdc1[3]
838860800 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 0/7 pages [0KB], 65536KB chunk
md125 : active raid1 sda3[0] sdb3[1] sdc3[3] sdd3[2]
1048576 blocks super 1.2 [4/4] [UUUU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md126 : active raid10 sda2[0] sdb2[1] sdc2[3] sdd2[2]
16793600 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
md127 : active raid10 sdb5[1] sda5[0] sdc5[3] sdd5[2]
116574208 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 1/1 pages [4KB], 65536KB chunk
No estoy seguro de si creó un RAID 10 adecuado. ¿Alguien puede explicar qué hay de malo en esto?
Si no ve ningún problema, supongo que el instalador de centos me confundió. Me vi obligado a elegir un RAID 1 para la partición /boot y la partición /boot/efi. Entonces me preguntaba dónde están esas particiones en los discos y si podré arrancar en caso de falla del disco.
Aquí está la salida lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 465,8G 0 disk
├─sda1 8:1 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sda2 8:2 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sda3 8:3 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sda4 8:4 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sda5 8:5 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sdb 8:16 0 465,8G 0 disk
├─sdb1 8:17 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sdb2 8:18 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sdb3 8:19 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sdb4 8:20 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sdb5 8:21 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sdc 8:32 0 465,8G 0 disk
├─sdc1 8:33 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sdc2 8:34 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sdc3 8:35 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sdc4 8:36 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sdc5 8:37 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sdd 8:48 0 465,8G 0 disk
├─sdd1 8:49 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sdd2 8:50 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sdd3 8:51 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sdd4 8:52 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sdd5 8:53 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sr0 11:0 1 1024M 0 rom
Respuesta1
Si es correcto. Como puedes ver desde
# cat /proc/mdstat
El arranque es RAID1
md125: raid1 activo sda3[0] sdb3[1] sdc3[3] sdd3[2] 1048576 bloques super 1.2 [4/4] [UUUU] mapa de bits: 0/1 páginas [0KB], fragmento de 65536KB
Y el resto son RAID10
Básicamente, puedes averiguarlo emitiendo # cat /proc/mdstat
Respuesta2
Cuando se utiliza software RAID, el enfoque preferido es generalmente el que usted tiene, que consiste en particionar las unidades y luego crear varias matrices RAID con particiones de las diferentes unidades.
Por supuesto, es posible crear una única matriz a partir de las unidades sin particionar y luego particionar la matriz RAID resultante. Sin embargo, muchas herramientas, y en particular los gestores de arranque, tendrán dificultades para funcionar correctamente en este tipo de configuraciones.