wir haben einen HP-Server HP ProLiant ML10 Gen 9 mit Ubuntu 20.04.4 LTS. Wir haben ein Raid 1-Array für zwei 2 TB große Festplatten mit Intel RST Raid-Konfiguration aktiviert (ein Fake-/Firmware-Raid).Jetzt ist mein Ziel, das fehlerhafte Laufwerk zu ersetzen und das Raid 1-Array neu aufzubauen.
Unten sehen Sie die Ausgabe des Raid-StatusKatze /proc/mdstat
surya@himalaya:~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
1953511424 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sda[1](S) sdb[0](S)
6320 blocks super external:imsm
unused devices: <none>
Unten sehen Sie die Ausgabe der HDD-Info lsblk
surya@himalaya:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 61.9M 1 loop /snap/core20/1361
loop1 7:1 0 67.9M 1 loop /snap/lxd/22526
loop2 7:2 0 55.5M 1 loop /snap/core18/2284
loop3 7:3 0 43.6M 1 loop /snap/snapd/14978
loop4 7:4 0 55.4M 1 loop /snap/core18/2128
loop5 7:5 0 43.6M 1 loop /snap/snapd/15177
loop6 7:6 0 67.2M 1 loop /snap/lxd/21835
loop7 7:7 0 61.9M 1 loop /snap/core20/1376
sda 8:0 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sdb 8:16 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sr0 11:0 1 1024M 0 rom
Ich habe den folgenden Befehl verwendet, um das fehlerhafte Laufwerk sdb wie oben gezeigt zu ersetzen.
mdadm --manage /dev/md126 --fail /dev/sdbund ich habe das System heruntergefahren und die Festplatte im selben Port ersetzt.
Wenn ich jetzt versuche, das Array mit diesem Befehl neu zu erstellenmdadm --manage /dev/md126 --add /dev/sdbIch erhalte die folgende Meldung.
root@himalaya:~# mdadm --manage /dev/md126 --add /dev/sdb
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
jetzt die Ausgabe vonKatze /proc/mdstatist unterhalb.
root@himalaya:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[0]
1953511424 blocks super external:/md127/0 [2/1] [U_]
md127 : inactive sda[0](S)
3160 blocks super external:imsm
unused devices: <none>
Ich habe auch versucht, die Intel ROM-Option im BIOS mit (Strg + i) einzugeben. Ich habe dieOROM UI normale Verzögerung auf 4 SekundenunterSATA-Konfiguration in den BIOS-Einstellungen. aber ich konnte den Bildschirm nicht aufrufen, um das Array im BIOS neu zu erstellen. Es wäre eine große Hilfe, wenn mir jemand dabei helfen könnte, das Raid 1-Array neu zu erstellen und wiederherzustellen.
Antwort1
Daher beantworte ich meine eigene Frage zum Nutzen aller, die mit dieser Art von gefälschten Raid-Controllern zu tun haben.
Das habe ich herausgefunden
Interessanterweisemd126ist hier nicht das Haupt-RAID-Array, es istmd127, also habe ich lediglich dieses neue Laufwerk mit folgendem Befehl erneut zu md127 hinzugefügt:
mdadm --manage /dev/md127 --force --add /dev/sdb
und der Raid begann mit dem Wiederaufbau.
jetzt die Ergebnisse voncat/proc/mdstatSind:
root@himalaya:~# cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
1953511424 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sdb[1](S) sda[0](S)
6320 blocks super external:imsm
unused devices: <none>
Und diese Änderungen wurden auch im BIOS-Bildschirm angezeigt. Der Status der Intel RST RAID-Volumes war „Normal“.
Unten finden Sie die Liste der Befehle, die ich zur erfolgreichen Wiederherstellung dieses RAID 1-Arrays verwendet habe.
So überprüfen Sie den Raid-Status:
cat /proc/mdstat
Entfernen der ausgefallenen Festplatte: Zuerst markieren wir die Festplatte als ausgefallen und entfernen sie dann aus dem Array:
mdadm --manage /dev/md126 --fail /dev/sdb
mdadm --manage /dev/md126 --remove /dev/sdb
Schalten Sie dann das System aus und ersetzen Sie das neue Laufwerk:
shutdown -h now
Hinzufügen der neuen Festplatte: Zuerst müssen Sie genau die gleiche Partitionierung wie auf /dev/sda erstellen:
sfdisk -d /dev/sda | sfdisk /dev/sdb
So überprüfen Sie, ob beide Festplatten die gleiche Partitionierung haben:
fdisk -l
Als Nächstes fügen wir dieses Laufwerk dem RAID-Array hinzu (Sie können md126 oder md127 verwenden, je nachdem, welches Ihr Haupt-RAID-Array ist). Unten ist der Befehl, den ich verwendet habe:
mdadm --manage /dev/md127 --force --add /dev/sdb
Das ist es. Sie können jetzt sehen, dass der Raid mit dem Wiederaufbau begonnen hat.