Estoy ejecutando un pequeño servidor de laboratorio (inicios de sesión intermedios y almacenamiento de datos). Tiene 5 unidades físicas: una (sda) para /
y RAID 6 de 4 unidades (sd[be]) para /home
. Debido a una falla de hardware, tuve que reemplazar la primera unidad.
Ahora, después de reinstalar el sistema en una nueva unidad, quería volver a montar el RAID y volver a agregar los usuarios. Sin embargo, me encontré con un problema:
mdadm --detail /dev/md/old_raid\:0
insinúa que sdb no está bien:
Version : 1.2
Creation Time : Thu Oct 20 11:29:38 2016
Raid Level : raid6
Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
Used Dev Size : 2147351040 (2047.87 GiB 2198.89 GB)
Raid Devices : 4
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sat Sep 14 12:26:45 2019
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : Asna2:0
UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
Events : 521636
Number Major Minor RaidDevice State
- 0 0 0 removed
4 8 32 1 active sync /dev/sdc
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
Sin embargo,
mdadm --examine/dev/sdb1
enumera esto:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
Name : Asna2:0
Creation Time : Thu Oct 20 11:29:38 2016
Raid Level : raid6
Raid Devices : 4
Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB)
Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262064 sectors, after=1023 sectors
State : clean
Device UUID : a0aecf87:70ed61b2:3e36eb5c:8204d8f4
Update Time : Wed Sep 4 00:39:22 2019
Checksum : f0a3c084 - correct
Events : 253375
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
Y mdadm --examine /dev/sdc
(aparentemente aparecieron algunos bloques malos):
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
Name : Asna2:0
Creation Time : Thu Oct 20 11:29:38 2016
Raid Level : raid6
Raid Devices : 4
Avail Dev Size : 5860271024 (2794.39 GiB 3000.46 GB)
Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=1565568944 sectors
State : clean
Device UUID : df8c2562:f7adc18e:6ae7246f:02ebe494
Update Time : Sat Sep 14 12:26:45 2019
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : b70b8fa1 - correct
Events : 521636
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing)
EDITAR: Las impresiones para sdd y sde son las mismas que para sdc, excepto por la parte del bloque defectuoso.
¿Entiendo correctamente que el mejor curso de acción es
1) eliminar sdb y sdc
2) ponga a cero el sdb (o compre una segunda unidad de repuesto, esas son unidades rojas WD de 3 TB que son bastante caras)
3) cruzar los dedos y reconstruir la matriz
¿O existe una solución alternativa menos extrema?