Das Raid 1-Array (Intel RST Raid 1) kann im BIOS und im Betriebssystem (Ubuntu-Server 20.04.4) nicht neu erstellt werden.

Das Raid 1-Array (Intel RST Raid 1) kann im BIOS und im Betriebssystem (Ubuntu-Server 20.04.4) nicht neu erstellt werden.

wir haben einen HP-Server HP ProLiant ML10 Gen 9 mit Ubuntu 20.04.4 LTS. Wir haben ein Raid 1-Array für zwei 2 TB große Festplatten mit Intel RST Raid-Konfiguration aktiviert (ein Fake-/Firmware-Raid).Jetzt ist mein Ziel, das fehlerhafte Laufwerk zu ersetzen und das Raid 1-Array neu aufzubauen.

Unten sehen Sie die Ausgabe des Raid-StatusKatze /proc/mdstat

surya@himalaya:~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
      1953511424 blocks super external:/md127/0 [2/2] [UU]

md127 : inactive sda[1](S) sdb[0](S)
      6320 blocks super external:imsm

unused devices: <none>

Unten sehen Sie die Ausgabe der HDD-Info lsblk

surya@himalaya:~$ lsblk
NAME                        MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
loop0                         7:0    0 61.9M  1 loop  /snap/core20/1361
loop1                         7:1    0 67.9M  1 loop  /snap/lxd/22526
loop2                         7:2    0 55.5M  1 loop  /snap/core18/2284
loop3                         7:3    0 43.6M  1 loop  /snap/snapd/14978
loop4                         7:4    0 55.4M  1 loop  /snap/core18/2128
loop5                         7:5    0 43.6M  1 loop  /snap/snapd/15177
loop6                         7:6    0 67.2M  1 loop  /snap/lxd/21835
loop7                         7:7    0 61.9M  1 loop  /snap/core20/1376
sda                           8:0    0  1.8T  0 disk
└─md126                       9:126  0  1.8T  0 raid1
  ├─md126p1                 259:0    0  1.1G  0 part  /boot/efi
  ├─md126p2                 259:1    0  1.5G  0 part  /boot
  └─md126p3                 259:2    0  1.8T  0 part
    ├─ubuntu--vg-ubuntu--lv 253:0    0  100G  0 lvm   /
    └─ubuntu--vg-lv--0      253:1    0  1.7T  0 lvm   /home
sdb                           8:16   0  1.8T  0 disk
└─md126                       9:126  0  1.8T  0 raid1
  ├─md126p1                 259:0    0  1.1G  0 part  /boot/efi
  ├─md126p2                 259:1    0  1.5G  0 part  /boot
  └─md126p3                 259:2    0  1.8T  0 part
    ├─ubuntu--vg-ubuntu--lv 253:0    0  100G  0 lvm   /
    └─ubuntu--vg-lv--0      253:1    0  1.7T  0 lvm   /home
sr0                          11:0    1 1024M  0 rom

Ich habe den folgenden Befehl verwendet, um das fehlerhafte Laufwerk sdb wie oben gezeigt zu ersetzen.

mdadm --manage /dev/md126 --fail /dev/sdbund ich habe das System heruntergefahren und die Festplatte im selben Port ersetzt.

Wenn ich jetzt versuche, das Array mit diesem Befehl neu zu erstellenmdadm --manage /dev/md126 --add /dev/sdbIch erhalte die folgende Meldung.

root@himalaya:~# mdadm --manage /dev/md126 --add /dev/sdb
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container

jetzt die Ausgabe vonKatze /proc/mdstatist unterhalb.

root@himalaya:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[0]
      1953511424 blocks super external:/md127/0 [2/1] [U_]

md127 : inactive sda[0](S)
      3160 blocks super external:imsm

unused devices: <none>

Ich habe auch versucht, die Intel ROM-Option im BIOS mit (Strg + i) einzugeben. Ich habe dieOROM UI normale Verzögerung auf 4 SekundenunterSATA-Konfiguration in den BIOS-Einstellungen. aber ich konnte den Bildschirm nicht aufrufen, um das Array im BIOS neu zu erstellen. Es wäre eine große Hilfe, wenn mir jemand dabei helfen könnte, das Raid 1-Array neu zu erstellen und wiederherzustellen.

Antwort1

Daher beantworte ich meine eigene Frage zum Nutzen aller, die mit dieser Art von gefälschten Raid-Controllern zu tun haben.

Das habe ich herausgefunden

Interessanterweisemd126ist hier nicht das Haupt-RAID-Array, es istmd127, also habe ich lediglich dieses neue Laufwerk mit folgendem Befehl erneut zu md127 hinzugefügt:

mdadm --manage /dev/md127 --force --add /dev/sdb

und der Raid begann mit dem Wiederaufbau.

jetzt die Ergebnisse voncat/proc/mdstatSind:

root@himalaya:~# cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
      1953511424 blocks super external:/md127/0 [2/2] [UU]

md127 : inactive sdb[1](S) sda[0](S)
      6320 blocks super external:imsm

unused devices: <none>

Und diese Änderungen wurden auch im BIOS-Bildschirm angezeigt. Der Status der Intel RST RAID-Volumes war „Normal“.

Unten finden Sie die Liste der Befehle, die ich zur erfolgreichen Wiederherstellung dieses RAID 1-Arrays verwendet habe.

So überprüfen Sie den Raid-Status:

cat /proc/mdstat

Entfernen der ausgefallenen Festplatte: Zuerst markieren wir die Festplatte als ausgefallen und entfernen sie dann aus dem Array:

mdadm --manage /dev/md126 --fail /dev/sdb
mdadm --manage /dev/md126 --remove /dev/sdb

Schalten Sie dann das System aus und ersetzen Sie das neue Laufwerk:

shutdown -h now

Hinzufügen der neuen Festplatte: Zuerst müssen Sie genau die gleiche Partitionierung wie auf /dev/sda erstellen:

sfdisk -d /dev/sda | sfdisk /dev/sdb

So überprüfen Sie, ob beide Festplatten die gleiche Partitionierung haben:

fdisk -l

Als Nächstes fügen wir dieses Laufwerk dem RAID-Array hinzu (Sie können md126 oder md127 verwenden, je nachdem, welches Ihr Haupt-RAID-Array ist). Unten ist der Befehl, den ich verwendet habe:

mdadm --manage /dev/md127 --force --add /dev/sdb

Das ist es. Sie können jetzt sehen, dass der Raid mit dem Wiederaufbau begonnen hat.

verwandte Informationen