Tenemos el servidor HP HP ProLiant ML10 Gen 9 con Ubuntu 20.04.4 LTS. Hemos habilitado la matriz Raid 1 para dos HDD de 2 TB usando la configuración Intel RST Raid (que es una incursión falsa/de firmware).Ahora mi objetivo es reemplazar la unidad defectuosa y reconstruir la matriz Raid 1.
A continuación se muestra el resultado del estado de la incursión.gato /proc/mdstat
surya@himalaya:~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
1953511424 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sda[1](S) sdb[0](S)
6320 blocks super external:imsm
unused devices: <none>
A continuación se muestra la salida de HDD info lsblk
surya@himalaya:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 61.9M 1 loop /snap/core20/1361
loop1 7:1 0 67.9M 1 loop /snap/lxd/22526
loop2 7:2 0 55.5M 1 loop /snap/core18/2284
loop3 7:3 0 43.6M 1 loop /snap/snapd/14978
loop4 7:4 0 55.4M 1 loop /snap/core18/2128
loop5 7:5 0 43.6M 1 loop /snap/snapd/15177
loop6 7:6 0 67.2M 1 loop /snap/lxd/21835
loop7 7:7 0 61.9M 1 loop /snap/core20/1376
sda 8:0 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sdb 8:16 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sr0 11:0 1 1024M 0 rom
Utilicé el siguiente comando para reemplazar la unidad sdb defectuosa como se muestra arriba.
mdadm --manage /dev/md126 --fail /dev/sdby apagué el sistema y reemplacé el disco duro en el mismo puerto.
ahora cuando intento reconstruir la matriz usando este comandomdadm --manage /dev/md126 --añadir /dev/sdbRecibo el siguiente mensaje.
root@himalaya:~# mdadm --manage /dev/md126 --add /dev/sdb
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
ahora la salida degato /proc/mdstatEsta abajo.
root@himalaya:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[0]
1953511424 blocks super external:/md127/0 [2/1] [U_]
md127 : inactive sda[0](S)
3160 blocks super external:imsm
unused devices: <none>
También intenté ingresar a la opción Intel ROM en BIOS usando (Ctrl + i). He configurado elRetraso normal de la interfaz de usuario de OROM a 4 segundosbajoConfiguración SATA en la configuración del BIOS. pero no pude hacer que esa pantalla reconstruyera la matriz en BIOS. Sería de gran ayuda si alguien pudiera ayudarme sobre cómo reconstruir y restaurar la matriz Raid 1.
Respuesta1
Así que respondo mi propia pregunta para beneficio de todos los que tienen que lidiar con este tipo de controladores de incursiones falsos.
Esto es lo que encontré
Curiosamente elmd126No es la matriz RAID principal aquí, esmd127, así que todo lo que hice fue volver a agregar esta nueva unidad a md127 con:
mdadm --manage /dev/md127 --force --add /dev/sdb
y el Raid comenzó a reconstruirse.
ahora los resultados degato/proc/mdstatson:
root@himalaya:~# cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
1953511424 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sdb[1](S) sda[0](S)
6320 blocks super external:imsm
unused devices: <none>
Y estos cambios también se reflejaron en la pantalla del BIOS. El estado de los volúmenes Intel RST RAID era normal.
A continuación se muestra la lista de comandos que utilicé para restaurar esta matriz RAID 1 con éxito.
Para comprobar el estado de la incursión:
cat /proc/mdstat
Eliminación del disco fallido: Primero marcamos el disco como fallido y luego lo eliminamos de la matriz:
mdadm --manage /dev/md126 --fail /dev/sdb
mdadm --manage /dev/md126 --remove /dev/sdb
Luego apague el sistema y reemplace la nueva unidad:
shutdown -h now
Agregar el nuevo disco duro: Primero debe crear exactamente la misma partición que en /dev/sda:
sfdisk -d /dev/sda | sfdisk /dev/sdb
Para comprobar si ambos discos duros tienen la misma partición:
fdisk -l
A continuación agregamos esta unidad a la matriz RAID (puede usar md126 o md127 según sea cual sea su matriz RAID principal). A continuación se muestra el comando que utilicé:
mdadm --manage /dev/md127 --force --add /dev/sdb
Eso es todo. Ahora puedes ver que el Raid comenzó a reconstruirse.