Estou executando um pequeno servidor de laboratório (logins intermediários e armazenamento de dados). Possui 5 unidades físicas: uma (sda) para /
, e 4 unidades RAID 6 (sd[be]) para /home
. Devido a uma falha de hardware, tive que substituir a primeira unidade.
Agora, tendo reinstalado o sistema em uma nova unidade, eu queria remontar o RAID e adicionar novamente os usuários. No entanto, encontrei um problema:
mdadm --detail /dev/md/old_raid\:0
sugere que o sdb não está bem:
Version : 1.2
Creation Time : Thu Oct 20 11:29:38 2016
Raid Level : raid6
Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
Used Dev Size : 2147351040 (2047.87 GiB 2198.89 GB)
Raid Devices : 4
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sat Sep 14 12:26:45 2019
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : Asna2:0
UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
Events : 521636
Number Major Minor RaidDevice State
- 0 0 0 removed
4 8 32 1 active sync /dev/sdc
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
No entanto,
mdadm --examine/dev/sdb1
lista isto:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
Name : Asna2:0
Creation Time : Thu Oct 20 11:29:38 2016
Raid Level : raid6
Raid Devices : 4
Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB)
Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262064 sectors, after=1023 sectors
State : clean
Device UUID : a0aecf87:70ed61b2:3e36eb5c:8204d8f4
Update Time : Wed Sep 4 00:39:22 2019
Checksum : f0a3c084 - correct
Events : 253375
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
E mdadm --examine /dev/sdc
(aparentemente, alguns blocos ruins surgiram):
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
Name : Asna2:0
Creation Time : Thu Oct 20 11:29:38 2016
Raid Level : raid6
Raid Devices : 4
Avail Dev Size : 5860271024 (2794.39 GiB 3000.46 GB)
Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=1565568944 sectors
State : clean
Device UUID : df8c2562:f7adc18e:6ae7246f:02ebe494
Update Time : Sat Sep 14 12:26:45 2019
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : b70b8fa1 - correct
Events : 521636
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing)
EDIT: As impressões para sdd e sde são as mesmas que para sdc, exceto pela parte do bloco defeituoso.
Compreendi corretamente que o melhor curso de ação é
1) remova sdb e sdc
2) zerar o sdb (ou comprar uma segunda unidade sobressalente, esses são vermelhos WD de 3 TB que são bastante caros)
3) cruze os dedos e reconstrua o array
Ou existe uma solução alternativa e menos extrema?