
각각 5개의 파티션이 있는 2개의 하드 드라이브로 구성된 전용 서버가 있습니다.
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sda 8:0 0 1.8T 0 disk
├─sda1 8:1 0 1M 0 part
├─sda2 8:2 0 488M 0 part /boot/efi
├─sda3 8:3 0 7.6G 0 part
│ └─md0 9:0 0 15.3G 0 raid0 [SWAP]
├─sda4 8:4 0 977M 0 part
└─sda5 8:5 0 1.8T 0 part
sdb 8:16 0 1.8T 0 disk
├─sdb1 8:17 0 1M 0 part
├─sdb2 8:18 0 488M 0 part
├─sdb3 8:19 0 7.6G 0 part
│ └─md0 9:0 0 15.3G 0 raid0 [SWAP]
├─sdb4 8:20 0 977M 0 part
│ └─md1 9:1 0 976.4M 0 raid1 /boot
└─sdb5 8:21 0 1.8T 0 part
└─md2 9:2 0 1.8T 0 raid1 /
디스크가 인식되지 않아 서버가 재부팅되지 않는 문제가 발생하고 RAID 구성을 확인한 후 /dev/md2(OS 및 모든 데이터가 포함된 것으로 보임)에 디스크가 제거되고 /dev/sdb5만 활성 상태로 표시되는 것을 발견했습니다. 제거된 두 번째 디스크.
sudo mdadm --detail /dev/md2
/dev/md2:
Version : 1.2
Creation Time : Fri Jan 3 09:18:45 2020
Raid Level : raid1
Array Size : 1943880704 (1853.83 GiB 1990.53 GB)
Used Dev Size : 1943880704 (1853.83 GiB 1990.53 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sun Sep 17 09:11:34 2023
State : active, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : srv10135:2 (local to host srv10135)
UUID : 2dcfef18:2714aa4a:7a708454:42eb8813
Events : 219026
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 21 1 active sync /dev/sdb5
두 파티션(/dev/sda5 및 /dev/sdb5)을 검사하면 둘 다 동일한 RAID에 속하고 활성으로 표시되어 있음을 알 수 있습니다.
sudo mdadm --examine /dev/sda5
/dev/sda5:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 2dcfef18:2714aa4a:7a708454:42eb8813
Name : srv10135:2 (local to host srv10135)
Creation Time : Fri Jan 3 09:18:45 2020
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 3887761408 sectors (1853.83 GiB 1990.53 GB)
Array Size : 1943880704 KiB (1853.83 GiB 1990.53 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=0 sectors
State : active
Device UUID : d2b34f96:e2f0a43b:d3e85f43:b8cf7ea4
Internal Bitmap : 8 sectors from superblock
Update Time : Sat Sep 16 11:19:49 2023
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : 27e920f0 - correct
Events : 189131
Device Role : Active device 0
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
sudo mdadm --examine /dev/sdb5
/dev/sdb5:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 2dcfef18:2714aa4a:7a708454:42eb8813
Name : srv10135:2 (local to host srv10135)
Creation Time : Fri Jan 3 09:18:45 2020
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 3887761408 sectors (1853.83 GiB 1990.53 GB)
Array Size : 1943880704 KiB (1853.83 GiB 1990.53 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=0 sectors
State : active
Device UUID : 78918ed5:59a78605:df84fcf7:91ba926b
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Sep 17 09:16:06 2023
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : acbce60c - correct
Events : 219236
Device Role : Active device 1
Array State : .A ('A' == active, '.' == missing, 'R' == replacing)
mdadm --detail /dev/md2
이제 RAID 구성원에 잘못된 정보가 표시되는지, 아니면 /dev/sda5가 실제로 RAID에 없는지, RAID에 다시 추가해도 안전한지 궁금합니다.
답변1
일반적으로,/proc/mdstat
현재의 실제 RAID 상태를 표시합니다.
sda5
RAID 배열에서 실제로 누락되었습니다. 해당 이벤트 수가 .보다 훨씬 낮은지 확인하세요 sdb5
. 또한 sdb5
배열 상태를 확인하는 방법도 확인하세요..A
. 즉, 첫 번째 디스크가 누락된 것으로 표시됩니다.
다시 추가해야 합니다.sda5
다음과 유사한 명령을 실행하는 배열에mdadm /dev/md2 -a /dev/sda5
(이 명령을 세 번 확인하세요).~ 전에그래도 발행합니다).