HP サーバー HP ProLiant ML10 Gen 9 と Ubuntu 20.04.4 LTS を使用しています。Intel RST Raid 構成 (偽のファームウェア RAID) を使用して、2 台の 2TB HDD に対して Raid 1 アレイを有効にしました。現在の私の目標は、故障したドライブを交換し、RAID 1 アレイを再構築することです。
以下はレイドステータスの出力です/proc/mdstat を cat する
surya@himalaya:~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
1953511424 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sda[1](S) sdb[0](S)
6320 blocks super external:imsm
unused devices: <none>
以下はHDD info lsblkの出力です。
surya@himalaya:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 61.9M 1 loop /snap/core20/1361
loop1 7:1 0 67.9M 1 loop /snap/lxd/22526
loop2 7:2 0 55.5M 1 loop /snap/core18/2284
loop3 7:3 0 43.6M 1 loop /snap/snapd/14978
loop4 7:4 0 55.4M 1 loop /snap/core18/2128
loop5 7:5 0 43.6M 1 loop /snap/snapd/15177
loop6 7:6 0 67.2M 1 loop /snap/lxd/21835
loop7 7:7 0 61.9M 1 loop /snap/core20/1376
sda 8:0 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sdb 8:16 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sr0 11:0 1 1024M 0 rom
上記のように、以下のコマンドを使用して、障害のあるドライブ sdb を交換しました。
mdadm --manage /dev/md126 --fail /dev/sdbシステムをシャットダウンし、同じポートのハードドライブを交換しました。
このコマンドを使用してアレイを再構築しようとするとmdadm --manage /dev/md126 --add /dev/sdb以下のメッセージが表示されます。
root@himalaya:~# mdadm --manage /dev/md126 --add /dev/sdb
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
出力は/proc/mdstat を cat する以下です。
root@himalaya:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[0]
1953511424 blocks super external:/md127/0 [2/1] [U_]
md127 : inactive sda[0](S)
3160 blocks super external:imsm
unused devices: <none>
私はまた、BIOSでIntel ROMオプションを(Ctrl + i)で入力しようとしました。OROM UI の通常遅延は 4 秒下BIOS設定でのSATA構成. しかし、BIOS でアレイを再構築するための画面を表示できませんでした。RAID 1 アレイを再構築して復元する方法について、どなたかご教示いただければ大変助かります。
答え1
そこで私は、こうしたタイプの偽の RAID コントローラーを扱わなければならないすべての人のために、自分の質問に答えます。
私が見つけたものは次のとおりです
興味深いことに、126 円ここではメインのRAIDアレイではありませんが、127 円そこで私がしたのは、この新しいドライブを md127 に再度追加することだけでした。
mdadm --manage /dev/md127 --force --add /dev/sdb
そしてレイドは再建を始めました。
結果は猫/proc/mdstatは:
root@himalaya:~# cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
1953511424 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sdb[1](S) sda[0](S)
6320 blocks super external:imsm
unused devices: <none>
この変更は BIOS 画面にも反映されました。Intel RST RAID ボリュームのステータスは正常でした。
以下は、この RAID 1 アレイを正常に復元するために使用したコマンドのリストです。
レイドステータスを確認するには:
cat /proc/mdstat
障害が発生したディスクの削除: まず、ディスクを障害ディスクとしてマークし、アレイから削除します。
mdadm --manage /dev/md126 --fail /dev/sdb
mdadm --manage /dev/md126 --remove /dev/sdb
次に、システムの電源をオフにして、新しいドライブを交換します。
shutdown -h now
新しいハードドライブの追加: まず、/dev/sda とまったく同じパーティションを作成する必要があります。
sfdisk -d /dev/sda | sfdisk /dev/sdb
両方のハードドライブのパーティションが同じかどうかを確認するには:
fdisk -l
次に、このドライブを RAID アレイに追加します (メイン RAID アレイに応じて md126 または md127 を使用できます)。以下は私が使用したコマンドです。
mdadm --manage /dev/md127 --force --add /dev/sdb
これで完了です。Raid の再構築が開始されたことがわかります。