порядок устройств mdadm RAID10 не последовательный

порядок устройств mdadm RAID10 не последовательный

После отключения электроэнергии один из дисков в моих двух RAID10 перестал работать и перевел массивы в «деградированное» состояние. На диске было два раздела, один из которых, как я думаю, был для своп-рейда, а другой — для рейда Ubuntu. Однако после перемещения вещей из RAID Ubuntu на другой диск я недавно обнаружил, что каким-то образом один из разделов отсутствующего диска был восстановлен и повторно добавлен в массив. Подумав, что теперь все в порядке, я использовал следующую команду, чтобы повторно добавить оставшийся раздел:

sudo mdadm --manage --add /dev/md0 /dev/sdc1

И это «работает», но указан неправильный номер.

sudo cat /proc/mdstat
Personalities : [raid10] [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid10 sdd2[3] sdc2[2] sdb2[1] sda2[0]
      1890760704 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
      bitmap: 0/15 pages [0KB], 65536KB chunk

md0 : active raid10 sdc1[4] sdd1[3] sdb1[1] sda1[0]
      62466048 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

unused devices: <none>

/dev/sdc — это ранее отсутствовавший диск. Обратите внимание, что sdc1 и sdc2 имеют номера 4 и 2 в raid md0 и md1 соответственно. Раньше у обоих был номер 2 до сбоя. Однако, похоже, все снова «работает». Вот некоторые другие результаты сравнения двух raid.

sudo mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Thu Sep 28 07:19:50 2017
        Raid Level : raid10
        Array Size : 62466048 (59.57 GiB 63.97 GB)
     Used Dev Size : 31233024 (29.79 GiB 31.98 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sat Sep  2 22:58:51 2023
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : resync

              Name : Steward:0
              UUID : 587d0912:cbf49281:ed0bd4a2:c1a0102a
            Events : 567

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync set-A   /dev/sda1
       1       8       17        1      active sync set-B   /dev/sdb1
       4       8       33        2      active sync set-A   /dev/sdc1
       3       8       49        3      active sync set-B   /dev/sdd1

По сравнению с md1:

sudo mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Thu Sep 28 07:20:13 2017
        Raid Level : raid10
        Array Size : 1890760704 (1803.17 GiB 1936.14 GB)
     Used Dev Size : 945380352 (901.58 GiB 968.07 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Sat Sep  2 22:34:13 2023
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : bitmap

              Name : Steward:1
              UUID : c2ee95cd:b36cdadf:43b68247:674d01f9
            Events : 7585156

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync set-A   /dev/sda2
       1       8       18        1      active sync set-B   /dev/sdb2
       2       8       34        2      active sync set-A   /dev/sdc2
       3       8       50        3      active sync set-B   /dev/sdd2

Я что-то сделал не так? В md1 есть что-то о "Intent bitmap", чего нет в md0. Подозреваю, что разница в нумерации означает, что какой-то мусор остался от исходной ошибки. Я бы хотел его убрать, если это так. Пожалуйста, дайте совет.

Связанный контент