개념 이해: FreeNAS 게스트 VM 및 iSCSI를 갖춘 베어메탈 VMware ESXi 5.0

개념 이해: FreeNAS 게스트 VM 및 iSCSI를 갖춘 베어메탈 VMware ESXi 5.0

현재 단일 디스크로 테스트 설정(HP 마이크로서버)을 갖고 있으며 USB 플래시 드라이브에 ESXi 5.0 베어메탈을 설치하고 2GB 설치로 생성한 FreeNAS 8 VM을 가지고 있지만 지금은 헤매고 있습니다. ..

제가 원하는 것은 가상 머신용 ESXi와 네트워크 공유(Windows/Linux) 간에 나머지 200GB의 디스크를 유연하게 공유하는 것입니다. 이것이 iSCSI 스토리지일까요? 그러면 어떻게 해야 합니까? iSCSi 설정에 대한 많은 튜토리얼을 보았지만 제가 달성하고자 하는 개념이 목표에서 크게 벗어난 것인지 잘 모르겠습니다.

저는 VMware의 비교적 초보자이며 iSCSI 대상, 개시자 등에 대해 읽어 왔습니다.

마지막으로, 디스크를 여러 개 추가하고 ZFS RAID 세트를 생성하려는 경우 이 확장은 어떻게 됩니까? 처음부터 시작할까요?

귀하가 제공할 수 있는 모든 의견/통찰력에 감사드립니다.

팀.

답변1

이를 위해 iSCSI를 사용할 수 있으며, 그렇게 하기로 선택한 경우 나중에 이 물리적 상자에서 스토리지를 쉽게 마이그레이션할 수 있습니다. 그러나 이 단계에서는 물리적 스토리지를 VM으로 내보낼 수 있으므로 설정의 복잡성이 줄어듭니다. 단일 디스크/파티션 ZFS 풀을 raidz로 전환할 수는 없지만 나중에 디스크를 추가하고 해당 디스크의 raidz 풀을 생성하면 zfs send/zfs는 단일 디스크 풀에서 raidz 풀로 스냅샷을 받을 수 있습니다.
지금 생각해보면 FreeNAS VM을 보관할 파티션이 있습니다. 그런 다음 다른 파티션을 생성하고 이를 FreeNAS VM에 가상 하드 드라이브로 연결하고 여기에 ZFS 파일 시스템을 생성한 다음 iSCSI/NFS/CIFS 공유로 내보냅니다.
그러나 ZFS 데이터 상태 기능을 사용하기 위해 수행하려는 작업은 가능한 한 빨리 이 파일 시스템을 물리적 디스크로 마이그레이션하는 것입니다.

이 마이그레이션에 대한 대략적인 개요:

  1. 실제로 파티션 보유 ZFS 파일 시스템에서 스냅샷을 생성합니다.

    zfs snapshot datapool/data@migration

  2. 새 디스크에서 raidz 풀을 만듭니다. raidz 설정에 다른 장치를 추가할 수는 없지만 나중에 풀 자체에 다른 raidz를 추가할 수 있다는 점을 기억하십시오.

    zpool은 datapool2 raidz2 c4t0d0 c4t1d0 c4t2d0 c4t3d0 생성
  3. 데이터를 마이그레이션하려면 생성한 스냅샷을 보내고 받으세요.

    zfs는 datapool/data@migration을 보냅니다 | zfs는 datapool2/data를 수신합니다.

이것을 더 잘 이해하려면 다음을 읽으십시오.이 블로그 게시물.

답변2

목표를 벗어났는지 궁금하다고 말씀하셨는데요. 게시한 지 꽤 되어서 모든 것이 정리되었을 수도 있습니다. 저는 단일 250Gb 드라이브와 2Gb 메모리가 함께 제공되는 N40L을 가지고 있습니다. 3.5인치 내부 하드 드라이브를 위한 3개의 추가 슬롯이 있습니다.

아직 여정의 일부만 진행 중이지만 그 과정에서 얻은 핵심 사항은 다음과 같습니다.

  1. N40L에는 더 많은 메모리가 필요합니다. 저는 N40L을 최대 8Gb(2 x 4Gb 스틱)로 가져왔습니다. 저는 전체 사양(ECC RAM)을 선택했지만 많은 사람들이 이것이 더 저렴한 비 ECC에서도 작동할 것이라고 밝혔으며 일부 사람들은 HP가 지정한 제한을 초과하여 최대 16Gb(2 x 8Gb 스틱)를 넣을 수 있다는 것을 보여주었습니다. 나는 더 적은 수의 변수를 사용하기를 원하기 때문에 이 연습 전체에서 보수적입니다. NAS를 제자리에 설치할 때 무엇보다도 안정성을 원합니다. 이 업그레이드를 수행할 때까지 esxi 5(HP의 ISO)를 설치하는 데 문제가 있었습니다. esxi가 ​​작동 중이고 플래시 드라이브에서 부팅되면 문제가 해결된 것 같습니다.

  2. esxi를 조금 가지고 놀다가 N40L의 VM에서 freenas를 실행하기로 결정했습니다. openindiana, napp-it 등과 같은 다른 옵션도 있습니다. 여기에는 찬반 양론이 있다고 확신하지만 이는 제가 원하는 결과로 바로 연결되는 것 같았습니다. 다음에 발생한 실제 문제는 어떤 디스크를 가능한 한 비용 효율적으로 확보하는 방법과 마찬가지로 위험도가 낮은 옵션을 원한다는 것이었습니다. 사실, 기기와 함께 제공된 디스크는 Seagate Barracuda 7200RPM입니다. 어떤 디스크가 가장 좋은지에 대해 많은 논의가 있습니다. WD Red 드라이브가 NAS에 가장 적합한 것처럼 들리지만 저는 그 비용을 지출하지 않았습니다. ZFS RAIDZ의 매력은 단일 드라이브 오류로부터 복구할 수 있어야 한다는 것입니다. HP에서는 최대 8Tb(4 x 2Tb)라고 말하지만 이를 언급하는 게시물도 많습니다. 3Tb 드라이브를 사용해 보려고 했지만 ZFS를 사용하면 확장이 필요할 경우 반복적으로 3Tb로 교체할 수 있다는 가정 하에 2Tb 드라이브를 선택했습니다.

  3. 저는 사무실에서 드라이브를 받았습니다. 드라이브는 Seagate 확장 드라이브 인클로저(STBV2000300)에 들어 있었습니다. 이 방식으로 구입하는 것이 더 저렴한 이유는 그 자체로 전체적인 주제입니다. 케이스를 열기 전에 SEATOOLS의 긴 일반 테스트를 실행했습니다(탭 몇 개, 나사 몇 개). 내부에는 완벽하게 좋은 STDM2000DM001이 있습니다.

  4. 현재 제가 알고 있는 바는 ZFS를 올바르게 실행하려면 드라이브를 NAS VM에서 직접 사용할 수 있어야 한다는 것입니다. 이를 RDM이라고 합니다. 이것은 N40L에서는 약간 까다롭지만 지금까지는 잘 작동했습니다. 드라이브를 베이에 넣을 때 드라이브의 개별 일련 번호를 기록해 두십시오. 나사는 서버 케이스 도어에 있습니다. 그런 다음 esxi 명령줄에서(호스트에 kbd와 모니터가 있고 Alt-Fn 키를 사용하여 루트로 로그인) 250Gb 드라이브에 있는 기존 vmfs 데이터 저장소로 CD를 이동하고 다른 3개 드라이브에 대해 이러한 vmdk 파일을 생성합니다. RAW 매핑이 가능합니다. 이 게시물은 나에게 다음 명령을 제공했습니다.http://cyborgworkshop.org/2011/01/08/enabling-raw-sata-access-in-esxi-free/그러나 어떤 이유로 fdisk를 실행할 수 없었으므로 ls -l /vmfs/devices/disks를 사용하여 디스크를 찾을 수 있습니다. 다음 명령은 다음과 같습니다: vmkfstools -z /vmfs/devices/disks/t10.ATA_____ST32000542AS________________________________________5XW205BS RAW-2TB.vmdk - 버스로직

  5. 그런 다음 vm 설정을 편집하고 scsi 포트 1:0, 1:1 및 1:2에 매핑된 원시 LUN으로 3개의 하드 디스크를 추가하여 생성한 FreeBSD vm에 이러한 드라이브를 추가하는 esxi용 freenas 8.3의 기본 설치를 따랐습니다. 다시 한번 이것을 설명하는 많은 게시물이 있습니다. Freenas는 새 드라이브에 문제가 없다는 것을 알았습니다.

그게 내가 가진 한입니다. 컷오버하기 전에 이것을 더 테스트할 계획입니다. 특히 드라이브 중 하나를 제거한 상태로 VM을 부팅하여 무슨 일이 일어나는지 확인하는 데 관심이 있습니다.

답변3

빠른 방법: VMware ESXi의 FreeNAS RAIDZ

이것을 알아내는 데 오랜 시간이 걸렸지만 실제로는 매우 간단합니다.

이는 RAIDZ1을 원하고 FreeNAS가 사용할 가상 디스크용으로 3개의 물리적 드라이브가 있다고 가정합니다. 이는 또한 이미 VMWare ESXi가 설정되어 실행 중이라고 가정합니다.

  • ESXi에 3개의 데이터 저장소를 생성합니다(NAS 상자에 설치한 3개의 별도 물리적 디스크 3개 각각에 대해 하나씩).
  • VM을 시작하고 실행하려면 FreeNAS 매뉴얼의 지침을 따르십시오.
  • 4GB VM 만들기
  • VM 설정을 편집하고 100GB의 가상 디스크 3개를 추가하고 3개의 데이터 저장소 각각에 하나씩 배치합니다.
  • FreeNAS ISO에서 VM을 부팅하고 4GB VM에 설치합니다(발견된 서버의 ESXi 플래시 드라이브처럼 보일 수 있지만(나처럼 플래시 드라이브에서 ESXi를 실행하는 경우), 그렇지 않습니다)
  • 설치하고 재부팅하면 FreeNAS GUI에서 디스크를 사용할 수 있습니다.

FreeNAS에서 RAID 세트를 생성하려면:

  • 볼륨 > 볼륨 관리자
  • 디스크 3개를 추가하고 ZFS RAIDZ 옵션을 선택합니다.
  • 권한 설정: Unix ACL을 그대로 두고 모든 읽기/쓰기/실행 옵션을 선택합니다(예, 보안에는 좋지 않지만 테스트용입니다).

공유 만들기:

  • Windows(CIFS) 공유
  • Windows(CIFS) 공유 추가
  • 경로: 위에서 생성한 볼륨을 선택하세요.
  • 게스트 액세스 허용

관련 정보