mdadm raid 6에 디스크를 추가한 후 파일 시스템이 손상되었습니다.

mdadm raid 6에 디스크를 추가한 후 파일 시스템이 손상되었습니다.

저는 mdadm raid 6 파일 시스템을 가지고 있는데, 이 시스템에는 4개 중 3개의 디스크만 실행되고 있습니다. 4x2tb 디스크가 있는데, 4번째 디스크를 추가하고(일주일 내내 시도했습니다) 작업을 수행할 ls때마다 파일 시스템 오류가 발생합니다.

$ ll /mnt/downloads/downloads
...
d????????? ? ?    ?       ?                   ? drivers/
...

그러나 새로 추가된 디스크를 제거할 때마다 파일 시스템이 올바르게 표시됩니다.

$ sudo mdadm /dev/md0 --fail /dev/sde1
mdadm: set /dev/sde1 faulty in /dev/md0
$ ll /mnt/downloads/downloads
(correct contents)

슈퍼 블록을 제로화하고 레이드 관련 블록을 지우려고 시도했지만 sudo wipefs -a /dev/sde1모두 동일한 실패가 발생했습니다.

3개의 디스크만으로 mdadm 배열을 확인하면 오류가 표시되지 않습니다 echo check > /sys/block/md0/md/sync_action.

불량 블록이 있는지 확인하기 위해 디스크의 모든 섹터를 읽어 보았지만 이런 종류의 일은 발생하지 않았습니다.

sudo badblocks -wsv /dev/sde1지금은 디스크에서 실행 중이지만 오류가 표시될지는 의문입니다.

이것은 나를 매우 혼란스럽게 만들었습니다. 내 디스크가 어떤 면에서 불량하고 디스크 검사가 어떤 이유로 작동하지 않는 걸까요?

아니면 디스크를 올바르게 추가하지 않은 것과 관련이 있습니까? 나는 다음을 실행했다:

sudo mdadm /dev/md0 -a /dev/sde1

파일 시스템이 마운트된 동안 항상 이 명령을 실행하고 디스크를 추가하는 동안 마운트 해제한 것 같습니다. 이것이 문제를 일으킬 것이라고 생각하지 않습니까?

답변1

드라이브 자체가 나쁘지 않다면 커널 버그일 가능성이 높습니다.

예를 들어 최근 RAID6 재동기화 관련 데이터 손상 버그가 있었고 실행 중인 커널 버전에 따라 영향을 받을 수 있습니다.

버그: RAID6 복구가 커밋 4f4fd7c5798bbdd5a03a60f6269cf1177fbd11ef로 인해 중단됨

그렇지 않으면 RAID6의 나머지 패리티에 존재할 수 있는 RAID 불일치( mdadm --action=check /dev/mdX, )도 확인하십시오.watch head /sys/block/md*/md/mismatch_cnt

또한 다른 모든 각도, memtest, smartctl 등을 확인하고 dmesg에서 재동기화 중에 표시될 수 있는 오류 메시지를 확인하세요.

답변2

btrfs를 사용하는 동안 문제를 발견했으며VM웨어 업데이트, 드러내다:

Arch Linux vmware 게스트에 추가한 물리적 하드 디스크인 하드 디스크 0과 하드 디스크 4는 하나였으며 동일했습니다.

그것이 깨지는 것은 당연합니다.

내 커널 버전이 영향을 받은 버전에 있었기 때문에 Frostschutz의 대답은 여전히 ​​중요했을 수 있습니다.

관련 정보