mdadm RAID10 デバイスの順序が連続していない

mdadm RAID10 デバイスの順序が連続していない

停電後、2 つの RAID10 のドライブの 1 つが動作を停止し、アレイが「劣化」状態になりました。ドライブには 2 つのパーティションがあり、1 つはスワップ RAID 用で、もう 1 つは Ubuntu RAID 用だったと思います。しかし、Ubuntu RAID から別のディスクにデータを移動した後、最近、失われたディスクのパーティションの 1 つが何らかの理由で復元され、アレイに再度追加されたことがわかりました。これで大丈夫だろうと思い、次のコマンドを使用して残りのパーティションを再度追加しました。

sudo mdadm --manage --add /dev/md0 /dev/sdc1

そして、それは「機能」しますが、間違った番号を取得しました。

sudo cat /proc/mdstat
Personalities : [raid10] [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid10 sdd2[3] sdc2[2] sdb2[1] sda2[0]
      1890760704 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
      bitmap: 0/15 pages [0KB], 65536KB chunk

md0 : active raid10 sdc1[4] sdd1[3] sdb1[1] sda1[0]
      62466048 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

unused devices: <none>

/dev/sdc は、以前失われたドライブです。sdc1 と sdc2 は、それぞれ RAID md0 と md1 で番号 4 と 2 を持っていることに注意してください。障害が発生する前は、どちらも番号 2 でした。ただし、再び「動作」しているようです。2 つの RAID を比較したその他の出力を次に示します。

sudo mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Thu Sep 28 07:19:50 2017
        Raid Level : raid10
        Array Size : 62466048 (59.57 GiB 63.97 GB)
     Used Dev Size : 31233024 (29.79 GiB 31.98 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sat Sep  2 22:58:51 2023
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : resync

              Name : Steward:0
              UUID : 587d0912:cbf49281:ed0bd4a2:c1a0102a
            Events : 567

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync set-A   /dev/sda1
       1       8       17        1      active sync set-B   /dev/sdb1
       4       8       33        2      active sync set-A   /dev/sdc1
       3       8       49        3      active sync set-B   /dev/sdd1

md1と比較すると:

sudo mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Thu Sep 28 07:20:13 2017
        Raid Level : raid10
        Array Size : 1890760704 (1803.17 GiB 1936.14 GB)
     Used Dev Size : 945380352 (901.58 GiB 968.07 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Sat Sep  2 22:34:13 2023
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : bitmap

              Name : Steward:1
              UUID : c2ee95cd:b36cdadf:43b68247:674d01f9
            Events : 7585156

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync set-A   /dev/sda2
       1       8       18        1      active sync set-B   /dev/sdb2
       2       8       34        2      active sync set-A   /dev/sdc2
       3       8       50        3      active sync set-B   /dev/sdd2

何か間違ったことをしてしまったのでしょうか? md1 には、md0 にはない「インテント ビットマップ」に関するものがあります。番号の違いは、元のエラーから何らかのゴミが残っていることを意味しているのではないかと思います。そうであれば、それをクリーンアップしたいと思います。アドバイスをお願いします。

関連情報