
RAID 어레이를 다시 설정해야 하는데 크기가 다른 디스크에 직면했습니다. 2x 5TB 및 1개의 8TB 드라이브가 포함된 RAID 1 미러를 만들고 싶습니다. 이 작업을 수행하는 가장 좋은 방법이 확실하지 않습니다.
지금까지 생각한 선택지는 2가지..
하나는 2x 5TB를 LVM하고 다른 8TB 디스크가 있는 mdadm raid 1에 추가합니다.
둘째, 8TB에 두 개의 파티션을 생성하고 두 개의 raid1 파티션을 만든 다음 이를 LVM으로 결합합니다.
결국에는 하나의 파티션만 마운트하고 싶습니다. 상황을 더욱 복잡하게 만들기 위해 RAID가 아닐 가능성이 높지만 RSYNC를 통해 수동으로 백업되는 다른 디스크를 믹스에 추가하려고 합니다. 이 디스크를 RAID1과 함께 단일 마운트로 제공하고 싶습니다. 이는 최종 RAID를 제공하기 위해 LVM을 사용할 것임을 의미할 것입니다.
옵션 1에 대한 나의 관심사는 LVM을 RAID1 /dev/md0에 추가한 다음 /dev/md0 + 다른 디스크를 다른 LVM에 추가하는 것입니다.
내 데이터를 대대적으로 점검하고 의견을 찾는 것이 조금 걱정됩니다. 문제를 분석하기 위해 저는 3개의 디스크(그 중 2개는 작고 1개는 대형)를 사용하여 raid1을 수행하는 것에 대한 이 질문에 주로 초점을 맞추고 있습니다. 그러면 다음 부분에 집중할 수 있어요.
감사합니다. 추가로 필요한 사항이 있으면 알려주세요.
업데이트:
새로운 도구를 배우기 위해 mdadm 대신 ZFS를 사용하는 것을 고려하고 있습니다. LVM을 사용하여 2x 5TB 풀을 만든 다음 lvm + 8tb HDD의 ZFS 풀을 만드는 것과 같습니다. 괜찮을까요?> ZFS가 디스크에 대한 직접 원시 액세스를 원한다는 내용을 읽었으며 LVM이 이 상황에서 작동하는지 궁금합니다.
답변1
이와 같이 ZFS를 사용하는 것은 "권장"되지 않지만 정상적으로 작동합니다. mdadm을 사용하여 두 개의 5Tb 드라이브를 함께 결합한 다음 해당 장치를 ZFS로 전달하는 것은 완벽하게 가능합니다.
데이터 무결성 보호를 위해 ZFS를 사용하려는 소규모 사용자에게는 적합하지 않은 대규모 프로덕션 시스템용 ZFS 조정에 대한 많은 조언이 있습니다.
나는 당신이 최근 Linux disto를 사용하고 있다고 가정합니다. 이 경우:
mdadm --create /dev/md/twosmall /dev/disk/by-id/small1 /dev/disk/by-id/small2 --level=0 --raid-devices=2
/dev/md/twosmall에 10Tb 장치를 생성한 후 다음을 수행합니다.
zpool create -f eight mirror /dev/md/twosmall /dev/disk/by-id/large
조합에서 zfs 풀을 생성합니다.
그렇지 않으면 장치의 크기가 다르기 때문에 명령이 실패하기 때문 -f
입니다 . 다른 오류 메시지가 없는지 확인하기 위해 zpool create
먼저 실행하지 않고 실행하는 것이 좋습니다 .-f
twosmall
eight
mdadm raid 및 zfs 풀에 대해 무작위로 선택한 이름이며 해당 이름을 적절한 이름으로 바꿔야 합니다 /dev/disk/by-id
. 이 명령을 사용하여 ls -l /dev/disk/by-id | grep -v part | grep -v wwn | sort -k 11
/dev/sd?로 정렬된 시스템의 드라이브 목록을 가져옵니다. 단축키.
답변2
내가 결국 한 일은 Linux에서 고양이를 스킨하는 방법은 여러 가지가 있는데 같은 크기의 드라이브 2개가 필요하다고 말한 사람은 창의적이지 않았습니다!
참고: ZFS는 전체 디스크를 갖고 싶어하므로 파티션을 사용하면 일부 기능이 손실됩니다. 조사해 보세요. 하지만 홈 서버/데이터 저장소 풀의 경우에는 괜찮을 것이라고 확신합니다.
ZFS를 사용하여 다음과 같이 파티션을 만들었습니다.
1x4TB /dev/sda1
1x1TB /dev/sda2
1x4TB /dev/sdb1
1x1TB /dev/sdb2
1x4TB /dev/sdc1
1x4TB /dev/sdc2
그런 다음 다음과 같이 ZFS를 사용하여 미러를 생성했습니다.
/dev/sda1 /dev/sdc1 # 8TB
/dev/sdb1 /dev/sdc2 # 8TB
/dev/sda2 /dev/sdb2 # That leftover 1TB, might as well not waste it!
마지막으로 MergeFS를 사용하여 "OS/최종 사용자"에 대한 단일 마운트 지점으로 모든 것을 제시했습니다.
mhddfs
참고: 귀찮게 하지 않고 를 사용하는 데 많은 어려움을 겪었습니다 mergefs
.