mdadm RAID10 장치 순서가 순차적이지 않음

mdadm RAID10 장치 순서가 순차적이지 않음

정전 후 두 개의 RAID10에 있는 드라이브 중 하나가 작동을 멈추고 어레이가 '성능 저하' 상태가 되었습니다. 드라이브에는 두 개의 파티션이 있었는데, 하나는 스왑 레이드용이었고 다른 하나는 Ubuntu 레이드용이었습니다. 그러나 Ubuntu RAID에서 다른 디스크로 항목을 옮긴 후 최근 누락된 디스크의 파티션 중 하나가 복원되어 어레이에 다시 추가된 것을 발견했습니다. 이제 괜찮을 것 같다고 생각하여 다음 명령을 사용하여 나머지 파티션을 다시 추가했습니다.

sudo mdadm --manage --add /dev/md0 /dev/sdc1

그리고 그것은 '작동'하지만 잘못된 번호를 얻었습니다.

sudo cat /proc/mdstat
Personalities : [raid10] [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid10 sdd2[3] sdc2[2] sdb2[1] sda2[0]
      1890760704 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
      bitmap: 0/15 pages [0KB], 65536KB chunk

md0 : active raid10 sdc1[4] sdd1[3] sdb1[1] sda1[0]
      62466048 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

unused devices: <none>

/dev/sdc는 이전에 누락된 드라이브입니다. sdc1과 sdc2의 레이드 md0과 md1에는 각각 4와 2가 있습니다. 실패하기 전에는 둘 다 2위였습니다. 그러나 상황이 다시 '작동'하는 것 같습니다. 다음은 두 습격을 비교한 몇 가지 다른 결과입니다.

sudo mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Thu Sep 28 07:19:50 2017
        Raid Level : raid10
        Array Size : 62466048 (59.57 GiB 63.97 GB)
     Used Dev Size : 31233024 (29.79 GiB 31.98 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sat Sep  2 22:58:51 2023
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : resync

              Name : Steward:0
              UUID : 587d0912:cbf49281:ed0bd4a2:c1a0102a
            Events : 567

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync set-A   /dev/sda1
       1       8       17        1      active sync set-B   /dev/sdb1
       4       8       33        2      active sync set-A   /dev/sdc1
       3       8       49        3      active sync set-B   /dev/sdd1

md1과 비교:

sudo mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Thu Sep 28 07:20:13 2017
        Raid Level : raid10
        Array Size : 1890760704 (1803.17 GiB 1936.14 GB)
     Used Dev Size : 945380352 (901.58 GiB 968.07 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Sat Sep  2 22:34:13 2023
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : bitmap

              Name : Steward:1
              UUID : c2ee95cd:b36cdadf:43b68247:674d01f9
            Events : 7585156

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync set-A   /dev/sda2
       1       8       18        1      active sync set-B   /dev/sdb2
       2       8       34        2      active sync set-A   /dev/sdc2
       3       8       50        3      active sync set-B   /dev/sdd2

내가 뭔가 잘못한 걸까요? md1에는 md0에 없는 "의도 비트맵"에 대한 내용이 있습니다. 나는 번호 매기기 차이가 원래 오류에서 어떤 종류의 쓰레기가 남겨졌다는 것을 의미한다고 생각합니다. 그런 경우에는 청소를 하고 싶습니다. 조언을 빌려주세요.

관련 정보