
내 Ubuntu 서버에서 실행 중인 3디스크 RAID 어레이가 있습니다. 이것은 1년 넘게 완벽하게 작동해 왔지만 최근에 기계를 제거하고 이동하고 재조립해야 했습니다.
모든 것을 다시 정리하고 Ubuntu를 실행했을 때 디스크가 감지되지 않는 문제가 있었습니다. 나중에 몇 번 재부팅하면 해당 문제가 해결되었습니다. 이제 문제는 부팅할 때마다 3디스크 어레이의 성능이 저하된 것으로 나타난다는 것입니다. 어떤 이유에서인지 우분투는 새로운 어레이를 만들고 거기에 누락된 디스크를 추가한 것 같습니다.
새로운 1-디스크 어레이를 중지하고 누락된 디스크를 추가하려고 시도했지만 어려움을 겪고 있습니다. 시작하면 다음과 같은 결과를 얻습니다.
root@uberserver:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md_d1 : inactive sdf1[2](S)
1953511936 blocks
md0 : active raid5 sdg1[2] sdc1[3] sdb1[1] sdh1[0]
2930279808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
두 개의 RAID 어레이가 있는데 일반적으로 md1로 나타나는 어레이는 나타나지 않습니다.
호출하면 누락된 배열이 다시 조립된다는 내용을 읽었 mdadm --assemble --scan
으므로 우분투가 시작한 기존 배열을 먼저 중지해 보았습니다.
root@uberserver:~# mdadm --stop /dev/md_d1
mdadm: stopped /dev/md_d1
...그런 다음 우분투에게 디스크를 다시 가져오라고 지시했습니다.
root@uberserver:~# mdadm --assemble --scan
mdadm: /dev/md/1 has been started with 2 drives (out of 3).
그러면 md1이 다시 시작되었지만 md_d1에서 디스크를 가져오지 않습니다.
root@uberserver:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sde1[1] sdf1[2]
3907023872 blocks level 5, 64k chunk, algorithm 2 [3/2] [_UU]
md_d1 : inactive sdd1[0](S)
1953511936 blocks
md0 : active raid5 sdg1[2] sdc1[3] sdb1[1] sdh1[0]
2930279808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
여기서 무슨 일이 일어나고 있나요? Ubuntu가 sdd1
다른 어레이를 선택하려고 하는 이유는 무엇입니까 ? 잃어버린 디스크를 다시 집으로 가져오려면 어떻게 해야 합니까?
[편집하다]- 에서 자동 시작에 md1을 추가하지 않았다는 것을 깨달았습니다 mdadm.conf
. md1을 추가한 후 mdadm.conf
이제 시작 시 어레이 마운트를 시도하지만 여전히 누락되어 있습니다 sdd1
. 자동으로 조립하려고 하면 필요하다는 것을 알지만 sdd1
사용할 수 없다는 인상을 받습니다.
root@uberserver:~# mdadm --assemble --scan
/dev/md1: File exists
mdadm: /dev/md/1 already active, cannot restart it!
mdadm: /dev/md/1 needed for /dev/sdd1...
내가 무엇을 놓치고 있나요?
답변1
이것이 문제를 해결하는 가장 깔끔한 방법인지는 확실하지 않지만 다음과 같은 방법으로 문제가 다시 시작된 것으로 보입니다.
root@uberserver:~# mdadm --stop /dev/md_d1
mdadm: stopped /dev/md_d1
root@uberserver:~# mdadm --add /dev/md1 /dev/sdd1
mdadm: re-added /dev/sdd1
root@uberserver:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdd1[3] sde1[1] sdf1[2]
3907023872 blocks level 5, 64k chunk, algorithm 2 [3/2] [_UU]
[>....................] recovery = 0.0% (121728/1953511936) finish=1337.0min speed=24345K/sec
md0 : active raid5 sdg1[2] sdc1[3] sdb1[1] sdh1[0]
2930279808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
여전히 디스크를 다시 추가할 수 없는 이유를 이해하지 못합니다. :-/
답변2
비슷한 문제가 발생했습니다. 느슨한 전원 케이블로 인해 어레이에서 드라이브가 떨어졌을 수 있습니다. 그래서 mdstat에 [U_UU]가 표시되고 SeaChest와 같은 다른 도구에서도 드라이브가 사라졌습니다. 모든 커넥터를 다시 장착한 후 드라이브가 다시 나타 났지만 mdadm이 자동으로 복구되지 않았습니다. 그냥 떨어뜨린 것 같았어요.
me@server:~$ sudo mdadm --details /dev/md0
드라이브가 존재하고 작동하며 올바른 UUID 태그가 있음에도 불구하고 드라이브가 제거된 것으로 표시되었습니다.
복구하려면 다음을 실행해야 했습니다.
me@server:~$ sudo mdadm --add /dev/md0 /dev/sdb1
즉시 드라이브를 추가하고 복구를 시작했습니다(먼저 어레이를 중지할 필요가 없었습니다).