
停電後、2 つの RAID10 のドライブの 1 つが動作を停止し、アレイが「劣化」状態になりました。ドライブには 2 つのパーティションがあり、1 つはスワップ RAID 用で、もう 1 つは Ubuntu RAID 用だったと思います。しかし、Ubuntu RAID から別のディスクにデータを移動した後、最近、失われたディスクのパーティションの 1 つが何らかの理由で復元され、アレイに再度追加されたことがわかりました。これで大丈夫だろうと思い、次のコマンドを使用して残りのパーティションを再度追加しました。
sudo mdadm --manage --add /dev/md0 /dev/sdc1
そして、それは「機能」しますが、間違った番号を取得しました。
sudo cat /proc/mdstat
Personalities : [raid10] [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid10 sdd2[3] sdc2[2] sdb2[1] sda2[0]
1890760704 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 0/15 pages [0KB], 65536KB chunk
md0 : active raid10 sdc1[4] sdd1[3] sdb1[1] sda1[0]
62466048 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
unused devices: <none>
/dev/sdc は、以前失われたドライブです。sdc1 と sdc2 は、それぞれ RAID md0 と md1 で番号 4 と 2 を持っていることに注意してください。障害が発生する前は、どちらも番号 2 でした。ただし、再び「動作」しているようです。2 つの RAID を比較したその他の出力を次に示します。
sudo mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Sep 28 07:19:50 2017
Raid Level : raid10
Array Size : 62466048 (59.57 GiB 63.97 GB)
Used Dev Size : 31233024 (29.79 GiB 31.98 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Sep 2 22:58:51 2023
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Consistency Policy : resync
Name : Steward:0
UUID : 587d0912:cbf49281:ed0bd4a2:c1a0102a
Events : 567
Number Major Minor RaidDevice State
0 8 1 0 active sync set-A /dev/sda1
1 8 17 1 active sync set-B /dev/sdb1
4 8 33 2 active sync set-A /dev/sdc1
3 8 49 3 active sync set-B /dev/sdd1
md1と比較すると:
sudo mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Thu Sep 28 07:20:13 2017
Raid Level : raid10
Array Size : 1890760704 (1803.17 GiB 1936.14 GB)
Used Dev Size : 945380352 (901.58 GiB 968.07 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sat Sep 2 22:34:13 2023
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Consistency Policy : bitmap
Name : Steward:1
UUID : c2ee95cd:b36cdadf:43b68247:674d01f9
Events : 7585156
Number Major Minor RaidDevice State
0 8 2 0 active sync set-A /dev/sda2
1 8 18 1 active sync set-B /dev/sdb2
2 8 34 2 active sync set-A /dev/sdc2
3 8 50 3 active sync set-B /dev/sdd2
何か間違ったことをしてしまったのでしょうか? md1 には、md0 にはない「インテント ビットマップ」に関するものがあります。番号の違いは、元のエラーから何らかのゴミが残っていることを意味しているのではないかと思います。そうであれば、それをクリーンアップしたいと思います。アドバイスをお願いします。