
Após uma queda de energia, uma das unidades dos meus dois RAID10 parou de funcionar e colocou os arrays em estado 'degradado'. A unidade tinha duas partições, uma que eu acho que era para um ataque de troca e a outra para o ataque ao Ubuntu. No entanto, depois de mover as coisas do RAID do Ubuntu para outro disco, descobri recentemente que de alguma forma uma das partições do disco ausente foi restaurada e adicionada novamente ao array. Pensando que tudo estaria bem agora, usei o seguinte comando para adicionar novamente a partição restante:
sudo mdadm --manage --add /dev/md0 /dev/sdc1
E 'funciona', mas deu o número errado.
sudo cat /proc/mdstat
Personalities : [raid10] [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid10 sdd2[3] sdc2[2] sdb2[1] sda2[0]
1890760704 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 0/15 pages [0KB], 65536KB chunk
md0 : active raid10 sdc1[4] sdd1[3] sdb1[1] sda1[0]
62466048 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
unused devices: <none>
/dev/sdc é a unidade anteriormente ausente. Observe que sdc1 e sdc2 têm números 4 e 2 nos ataques md0 e md1 respectivamente. Costumava ser o número 2 para ambos antes do fracasso. No entanto, as coisas parecem estar ‘funcionando’ novamente. Aqui estão alguns outros resultados comparando os dois ataques.
sudo mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Sep 28 07:19:50 2017
Raid Level : raid10
Array Size : 62466048 (59.57 GiB 63.97 GB)
Used Dev Size : 31233024 (29.79 GiB 31.98 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Sep 2 22:58:51 2023
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Consistency Policy : resync
Name : Steward:0
UUID : 587d0912:cbf49281:ed0bd4a2:c1a0102a
Events : 567
Number Major Minor RaidDevice State
0 8 1 0 active sync set-A /dev/sda1
1 8 17 1 active sync set-B /dev/sdb1
4 8 33 2 active sync set-A /dev/sdc1
3 8 49 3 active sync set-B /dev/sdd1
Comparado com md1:
sudo mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Thu Sep 28 07:20:13 2017
Raid Level : raid10
Array Size : 1890760704 (1803.17 GiB 1936.14 GB)
Used Dev Size : 945380352 (901.58 GiB 968.07 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sat Sep 2 22:34:13 2023
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Consistency Policy : bitmap
Name : Steward:1
UUID : c2ee95cd:b36cdadf:43b68247:674d01f9
Events : 7585156
Number Major Minor RaidDevice State
0 8 2 0 active sync set-A /dev/sda2
1 8 18 1 active sync set-B /dev/sdb2
2 8 34 2 active sync set-A /dev/sdc2
3 8 50 3 active sync set-B /dev/sdd2
Fiz algo errado? md1 tem algo sobre "bitmap de intenção" que md0 não possui. Suspeito que a diferença de numeração significa que algum tipo de lixo foi deixado para trás no erro original. Eu gostaria de limpá-lo, se for esse o caso. Por favor, dê seu conselho.