Linkstation WXL: RAID가 사라지고 /dev/md2가 비활성 상태입니다. - 문제 해결 방법

Linkstation WXL: RAID가 사라지고 /dev/md2가 비활성 상태입니다. - 문제 해결 방법

오늘 Linkstation에서 SMB 공유에 액세스하는 데 문제가 있었습니다. 내 NAS에는 raid0으로 구성된 두 개의 하드 드라이브 디스크가 있습니다. 이 RAID는 내가 누락된 폴더인 /mnt/array1/intern에 마운트되었습니다.

첫 번째 문제는 오류 보고를 어디서 찾을 수 있는지 정말 모르겠습니다.

/var/log/messages부터 시작해 보겠습니다.

/usr/local/bin/hdd_check_normal.sh: mount -t xfs /dev/md2 /mnt/array1 failed.

좋아요. 이 메시지를 검색하고 다음을 시도했습니다.

cat /proc/mdstat
md2 : inactive sda6[1](S)
      1938311476 blocks super 1.2

md1 : active raid1 sda2[1]
      4999156 blocks super 1.2 [2/1] [_U]

md10 : active raid1 sda5[1]
      1000436 blocks super 1.2 [2/1] [_U]

md0 : active raid1 sda1[1]
      1000384 blocks [2/1] [_U]

unused devices: <none>

알았어... df -hi에서 md0이 내 부팅 파티션이고 md1이 루트 파티션이라는 것을 알아두세요. md2가 누락된 raid인 것 같습니다. 그런데 raid10은 무엇입니까? 그러나 mdadm의 구성을 새로 고치고 다음을 사용하여 RAID를 재조립하려고 했습니다.

mdadm --examine --scan > /etc/mdadm.conf
mdadm --assemble --scan -v

이로 인해 다음과 같은 몇 가지 오류 메시지가 표시됩니다.

cannot open device /dev/md/1: Device or resource busy
mdadm: /dev/sda2 has wrong uuid.
mdadm: no RAID superblock on /dev/mtdblock0

sda, sda1, sda2, md/1, md/2 및 아들의 경우. 약 50줄인데 다 게시하고 싶지는 않습니다. 내가 이해하지 못하는 것은 "잘못된 uuid"입니다. 최근에 mdadm.conf에 현재 UUID를 추가하지 않았습니까?

내 /var/log/messages로 돌아가서 스크립트를 찾았습니다. 더 많은 오류 메시지가 표시되기를 바라면서 수동으로 시작하려고 했습니다.

/etc/init.d/start_data_array.sh

그것은 나에게 많은 메시지를 제공하는데, 가장 중요한 것은 - IMHO:

mount: mounting /dev/md2 on /mnt/array1 failed: Input/output error
umount: forced umount of /mnt/array1 failed!
umount: cannot umount /mnt/array1: Invalid argument

그래서 제가 가진 문제는 제가 아는 한 md2라는 raid0 배열에 문제가 있다는 것입니다.

주요 질문은: 무엇이 잘못되었나요? /dev/md2를 어떻게 활성화하나요? (mdadm --detail /dev/md2에서는 "장치가 활성화되지 않았습니까?) 어레이를 수동으로 다시 생성해야 합니까? 데이터가 손실됩니까?

이 장치가 활성화되지 않았다는 오류는 나에게 일반적인 것 같습니다. 검색할 때 실제로 내 문제와 관련이 없는 많은 게시물과 조언을 찾았습니다.

어떤 도움이라도 감사하겠습니다. 정말 감사합니다!

// 업데이트

점점 이상해지고 있어요. 제게는요. fdisk -l이 /sda 및 /sda6에 대해 말하는 내용은 다음과 같습니다.

root@OoompaLoompa:~# fdisk -l /dev/sda

Disk /dev/sda: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sda1               1      243202  1953514583+ ee EFI GPT
Disk /dev/sda6: 1984.8 GB, 1984832000000 bytes
255 heads, 63 sectors/track, 241308 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/sda6 doesn't contain a valid partition table

/sda6에는 내 배열의 파티이기 때문에 파티션 테이블이 없습니다. /sda에는 파티션 테이블이 있지만 슈퍼블록은 없습니다.

mdadm --examine /dev/sda
mdadm: No md superblock detected on /dev/sda

하지만 2GB HDD 중 하나입니다. 정말 혼란스러워요. 다음은 두 장치 모두에 대한 --examine의 출력입니다.

/dev/sda1:
        mdadm: No md superblock detected on /dev/sda.
/dev/sda6:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 41e67f06:3b93cda0:46ac3bd7:96702dae
           Name : UNINSPECT-EMC36:2
  Creation Time : Thu Oct 18 01:43:39 2012
     Raid Level : raid0
   Raid Devices : 2

 Avail Dev Size : 3876622952 (1848.52 GiB 1984.83 GB)
  Used Dev Size : 0
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 1dd1c5c5:220d14bf:5b0b1fc5:dbcc3f9c

    Update Time : Thu Oct 18 01:43:39 2012
       Checksum : 5d34dcac - correct
         Events : 0

     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing)

아직도 좀 혼란스러워요. /sda가 부팅 파티션이어야 합니까? 내 생각에 해결책은 슈퍼블록을 다시 생성한 다음 /md2를 다시 조립하는 것입니다.

Stil, 어떤 도움이라도 대단히 감사하겠습니다 :)

답변1

raid0 스트라이프에 두 개의 드라이브가 연결되어 있습니다. 하나의 드라이브 /dev/sda 및 RAID 파티션 /dev/sda6은 괜찮아 보입니다. 두 번째 드라이브는 어떻게 되었나요? 두 번째 드라이브가 손상된 것 같습니다. 다음을 실행하면 표시됩니까? fdisk -l

관련 정보