
정전 후 두 개의 RAID10에 있는 드라이브 중 하나가 작동을 멈추고 어레이가 '성능 저하' 상태가 되었습니다. 드라이브에는 두 개의 파티션이 있었는데, 하나는 스왑 레이드용이었고 다른 하나는 Ubuntu 레이드용이었습니다. 그러나 Ubuntu RAID에서 다른 디스크로 항목을 옮긴 후 최근 누락된 디스크의 파티션 중 하나가 복원되어 어레이에 다시 추가된 것을 발견했습니다. 이제 괜찮을 것 같다고 생각하여 다음 명령을 사용하여 나머지 파티션을 다시 추가했습니다.
sudo mdadm --manage --add /dev/md0 /dev/sdc1
그리고 그것은 '작동'하지만 잘못된 번호를 얻었습니다.
sudo cat /proc/mdstat
Personalities : [raid10] [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid10 sdd2[3] sdc2[2] sdb2[1] sda2[0]
1890760704 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 0/15 pages [0KB], 65536KB chunk
md0 : active raid10 sdc1[4] sdd1[3] sdb1[1] sda1[0]
62466048 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
unused devices: <none>
/dev/sdc는 이전에 누락된 드라이브입니다. sdc1과 sdc2의 레이드 md0과 md1에는 각각 4와 2가 있습니다. 실패하기 전에는 둘 다 2위였습니다. 그러나 상황이 다시 '작동'하는 것 같습니다. 다음은 두 습격을 비교한 몇 가지 다른 결과입니다.
sudo mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Sep 28 07:19:50 2017
Raid Level : raid10
Array Size : 62466048 (59.57 GiB 63.97 GB)
Used Dev Size : 31233024 (29.79 GiB 31.98 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Sep 2 22:58:51 2023
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Consistency Policy : resync
Name : Steward:0
UUID : 587d0912:cbf49281:ed0bd4a2:c1a0102a
Events : 567
Number Major Minor RaidDevice State
0 8 1 0 active sync set-A /dev/sda1
1 8 17 1 active sync set-B /dev/sdb1
4 8 33 2 active sync set-A /dev/sdc1
3 8 49 3 active sync set-B /dev/sdd1
md1과 비교:
sudo mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Thu Sep 28 07:20:13 2017
Raid Level : raid10
Array Size : 1890760704 (1803.17 GiB 1936.14 GB)
Used Dev Size : 945380352 (901.58 GiB 968.07 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sat Sep 2 22:34:13 2023
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Consistency Policy : bitmap
Name : Steward:1
UUID : c2ee95cd:b36cdadf:43b68247:674d01f9
Events : 7585156
Number Major Minor RaidDevice State
0 8 2 0 active sync set-A /dev/sda2
1 8 18 1 active sync set-B /dev/sdb2
2 8 34 2 active sync set-A /dev/sdc2
3 8 50 3 active sync set-B /dev/sdd2
내가 뭔가 잘못한 걸까요? md1에는 md0에 없는 "의도 비트맵"에 대한 내용이 있습니다. 나는 번호 매기기 차이가 원래 오류에서 어떤 종류의 쓰레기가 남겨졌다는 것을 의미한다고 생각합니다. 그런 경우에는 청소를 하고 싶습니다. 조언을 빌려주세요.