
После отключения электроэнергии один из дисков в моих двух RAID10 перестал работать и перевел массивы в «деградированное» состояние. На диске было два раздела, один из которых, как я думаю, был для своп-рейда, а другой — для рейда Ubuntu. Однако после перемещения вещей из RAID Ubuntu на другой диск я недавно обнаружил, что каким-то образом один из разделов отсутствующего диска был восстановлен и повторно добавлен в массив. Подумав, что теперь все в порядке, я использовал следующую команду, чтобы повторно добавить оставшийся раздел:
sudo mdadm --manage --add /dev/md0 /dev/sdc1
И это «работает», но указан неправильный номер.
sudo cat /proc/mdstat
Personalities : [raid10] [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid10 sdd2[3] sdc2[2] sdb2[1] sda2[0]
1890760704 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 0/15 pages [0KB], 65536KB chunk
md0 : active raid10 sdc1[4] sdd1[3] sdb1[1] sda1[0]
62466048 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
unused devices: <none>
/dev/sdc — это ранее отсутствовавший диск. Обратите внимание, что sdc1 и sdc2 имеют номера 4 и 2 в raid md0 и md1 соответственно. Раньше у обоих был номер 2 до сбоя. Однако, похоже, все снова «работает». Вот некоторые другие результаты сравнения двух raid.
sudo mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Sep 28 07:19:50 2017
Raid Level : raid10
Array Size : 62466048 (59.57 GiB 63.97 GB)
Used Dev Size : 31233024 (29.79 GiB 31.98 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Sep 2 22:58:51 2023
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Consistency Policy : resync
Name : Steward:0
UUID : 587d0912:cbf49281:ed0bd4a2:c1a0102a
Events : 567
Number Major Minor RaidDevice State
0 8 1 0 active sync set-A /dev/sda1
1 8 17 1 active sync set-B /dev/sdb1
4 8 33 2 active sync set-A /dev/sdc1
3 8 49 3 active sync set-B /dev/sdd1
По сравнению с md1:
sudo mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Thu Sep 28 07:20:13 2017
Raid Level : raid10
Array Size : 1890760704 (1803.17 GiB 1936.14 GB)
Used Dev Size : 945380352 (901.58 GiB 968.07 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sat Sep 2 22:34:13 2023
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Consistency Policy : bitmap
Name : Steward:1
UUID : c2ee95cd:b36cdadf:43b68247:674d01f9
Events : 7585156
Number Major Minor RaidDevice State
0 8 2 0 active sync set-A /dev/sda2
1 8 18 1 active sync set-B /dev/sdb2
2 8 34 2 active sync set-A /dev/sdc2
3 8 50 3 active sync set-B /dev/sdd2
Я что-то сделал не так? В md1 есть что-то о "Intent bitmap", чего нет в md0. Подозреваю, что разница в нумерации означает, что какой-то мусор остался от исходной ошибки. Я бы хотел его убрать, если это так. Пожалуйста, дайте совет.