Ubuntu 20.04.4 LTS가 설치된 HP 서버 HP ProLiant ML10 Gen 9가 있습니다. Intel RST Raid 구성(가짜/펌웨어 RAID)을 사용하여 2개의 HDD 크기 2TB에 대해 Raid 1 어레이를 활성화했습니다.이제 내 목표는 결함이 있는 드라이브를 교체하고 Raid 1 어레이를 재구축하는 것입니다.
아래는 Raid Status의 출력입니다.고양이 /proc/mdstat
surya@himalaya:~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
1953511424 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sda[1](S) sdb[0](S)
6320 blocks super external:imsm
unused devices: <none>
아래는 HDD info lsblk의 출력입니다.
surya@himalaya:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 61.9M 1 loop /snap/core20/1361
loop1 7:1 0 67.9M 1 loop /snap/lxd/22526
loop2 7:2 0 55.5M 1 loop /snap/core18/2284
loop3 7:3 0 43.6M 1 loop /snap/snapd/14978
loop4 7:4 0 55.4M 1 loop /snap/core18/2128
loop5 7:5 0 43.6M 1 loop /snap/snapd/15177
loop6 7:6 0 67.2M 1 loop /snap/lxd/21835
loop7 7:7 0 61.9M 1 loop /snap/core20/1376
sda 8:0 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sdb 8:16 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sr0 11:0 1 1024M 0 rom
위와 같이 결함이 있는 드라이브 sdb를 교체하기 위해 아래 명령을 사용했습니다.
mdadm --manage /dev/md126 --fail /dev/sdb시스템을 종료하고 동일한 포트의 하드 드라이브를 교체했습니다.
이제 이 명령을 사용하여 어레이를 재구축하려고 하면mdadm --manage /dev/md126 --/dev/sdb 추가아래 메시지가 나타납니다.
root@himalaya:~# mdadm --manage /dev/md126 --add /dev/sdb
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
이제 출력은고양이 /proc/mdstat아래에 있습니다.
root@himalaya:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[0]
1953511424 blocks super external:/md127/0 [2/1] [U_]
md127 : inactive sda[0](S)
3160 blocks super external:imsm
unused devices: <none>
또한 (Ctrl + i)를 사용하여 BIOS에서 Intel ROM 옵션을 입력하려고 했습니다.OROM UI 일반 지연은 4초입니다.아래에BIOS 설정의 SATA 구성. 하지만 BIOS에서 어레이를 재구축하기 위한 화면을 얻을 수 없었습니다. 누군가 Raid 1 어레이를 재구축하고 복원하는 방법에 대해 도움을 줄 수 있다면 큰 도움이 될 것입니다.
답변1
그래서 나는 이러한 유형의 가짜 레이드 컨트롤러를 처리해야 하는 모든 사람의 이익을 위해 내 자신의 질문에 대답합니다.
내가 찾은 것은 다음과 같습니다.
흥미롭게도MD126여기서는 기본 RAID 어레이가 아닙니다.MD127, 그래서 내가 한 일은 다음을 사용하여 이 새 드라이브를 md127에 다시 추가하는 것뿐이었습니다.
mdadm --manage /dev/md127 --force --add /dev/sdb
그리고 Raid는 스스로 재건되기 시작했습니다.
이제 결과는고양이/proc/mdstat이다:
root@himalaya:~# cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
1953511424 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sdb[1](S) sda[0](S)
6320 blocks super external:imsm
unused devices: <none>
그리고 이 변경 사항은 BIOS 화면에도 반영되었습니다. Intel RST RAID 볼륨 상태는 정상이었습니다.
다음은 이 RAID 1 어레이를 성공적으로 복원하는 데 사용한 명령 목록입니다.
습격 상태를 확인하려면:
cat /proc/mdstat
실패한 디스크 제거: 먼저 디스크를 실패한 것으로 표시한 다음 어레이에서 제거합니다.
mdadm --manage /dev/md126 --fail /dev/sdb
mdadm --manage /dev/md126 --remove /dev/sdb
그런 다음 시스템 전원을 끄고 새 드라이브를 교체합니다.
shutdown -h now
새 하드 드라이브 추가: 먼저 /dev/sda와 정확히 동일한 파티션을 생성해야 합니다.
sfdisk -d /dev/sda | sfdisk /dev/sdb
두 하드 드라이브의 파티션이 동일한지 확인하려면:
fdisk -l
다음으로 이 드라이브를 RAID 배열에 추가합니다(주 RAID 배열 중 md126 또는 md127을 적절하게 사용할 수 있음). 아래는 제가 사용한 명령입니다.
mdadm --manage /dev/md127 --force --add /dev/sdb
그게 다야. 이제 Raid가 재구축되기 시작한 것을 볼 수 있습니다.