Я использую небольшой лабораторный сервер (промежуточные входы и хранение данных). Он имеет 5 физических дисков: один (sda) для /
и 4-дисковый RAID 6 (sd[be]) для /home
. Из-за аппаратной неисправности мне пришлось заменить первый диск.
Теперь, переустановив систему на новый диск, я хотел перемонтировать RAID и заново добавить пользователей. Однако я столкнулся с проблемой:
mdadm --detail /dev/md/old_raid\:0
намекает, что sdb не в порядке:
Version : 1.2
Creation Time : Thu Oct 20 11:29:38 2016
Raid Level : raid6
Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
Used Dev Size : 2147351040 (2047.87 GiB 2198.89 GB)
Raid Devices : 4
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sat Sep 14 12:26:45 2019
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : Asna2:0
UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
Events : 521636
Number Major Minor RaidDevice State
- 0 0 0 removed
4 8 32 1 active sync /dev/sdc
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
Однако,
mdadm --examine/dev/sdb1
перечисляет это:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
Name : Asna2:0
Creation Time : Thu Oct 20 11:29:38 2016
Raid Level : raid6
Raid Devices : 4
Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB)
Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262064 sectors, after=1023 sectors
State : clean
Device UUID : a0aecf87:70ed61b2:3e36eb5c:8204d8f4
Update Time : Wed Sep 4 00:39:22 2019
Checksum : f0a3c084 - correct
Events : 253375
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
И mdadm --examine /dev/sdc
(видимо, вкрались плохие блоки):
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
Name : Asna2:0
Creation Time : Thu Oct 20 11:29:38 2016
Raid Level : raid6
Raid Devices : 4
Avail Dev Size : 5860271024 (2794.39 GiB 3000.46 GB)
Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=1565568944 sectors
State : clean
Device UUID : df8c2562:f7adc18e:6ae7246f:02ebe494
Update Time : Sat Sep 14 12:26:45 2019
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : b70b8fa1 - correct
Events : 521636
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing)
EDIT: Распечатки для sdd и sde такие же, как и для sdc, за исключением части с поврежденными блоками.
Правильно ли я понимаю, что наилучшим выходом будет
1) удалить sdb и sdc
2) обнулить sdb (или купить второй запасной диск, это 3Tb WD red, которые довольно дороги)
3) скрестить пальцы и перестроить массив
Или есть альтернативное, менее экстремальное решение?