Google Cloud의 SAN 스토리지

Google Cloud의 SAN 스토리지

100TB SAN(블록)을 GCP로 이동해야 하는 경우 어떤 옵션이 있나요? 제가 이해한 바에 따르면 영구 디스크여야 합니다. 그러나 현재 디스크당 최대 한도는 64TB입니다. 그래서 두 개의 디스크가 필요합니다. 하지만 어떻게 여러 머신이 이 블록 스토리지를 공유할 수 있을까요? 하나의 VM만 읽기/쓰기 액세스 권한을 가질 수 있고 다른 VM은 읽기 전용이어야 한다고 말합니다.

답변1

의견을 보내 주셔서 감사합니다. 요약 1. GCP에는 64TB가 넘는 대용량 블록 스토리지를 위한 기성 솔루션이 없습니다. 2. 64TB는 하나의 VM에 대해서만 W/R이 가능하며 다른 VM은 읽기 액세스만 가질 수 있습니다. 3. GCP에 BLOCK 스토리지가 필요한 경우 Compute Engine을 기본으로 사용하여 Ceph Storage를 구축해야 합니다. 4. 파일 저장소 요구 사항에 NFS 또는 Glueter를 사용할 수 있습니다.

위의 내용이 틀렸다면 정정해 주시기 바랍니다.

답변2

스토리지 어레이는 분명히 여러 호스트에 더 작은 LUN을 제공할 수 있으며, 이는 아마도 클라우드의 다른 VM일 수 있습니다. 어떤 이유로 전체 내용을 하나의 호스트에 표시해야 한다고 가정해 보겠습니다.


현재 문서화된 제한은 64TB 디스크보다 강력하며 64TB입니다.인스턴스당, 가장 작은 인스턴스 유형에서는 더 적습니다.

저장 옵션

대부분의 인스턴스에는 최대 64TB의 총 영구 디스크 공간을 연결할 수 있습니다.

그 이상에 액세스하려면 다중 노드 네트워크 파일 시스템을 고려하십시오. 클라우드 버킷과 같은 객체 스토리지이거나 NFS 또는 SMB와 같은 파일 기반 프로토콜입니다.

GCP에는 해당 플랫폼의 일부 파일러 제품에 대한 개요가 있습니다.이것이 유일한 옵션은 아니며 아마도 Ceph 또는 GlusterFS도 작동할 수 있습니다.

답변3

2개를 생성할 수 있습니다.파일 저장소인스턴스(기본적으로 NFS 서버)를 읽고 읽기/쓰기 모드로 여러 호스트에 마운트합니다.

다른 옵션은 자체 Gluster/Ceph 또는 유사한 스토리지 솔루션을 롤링하는 것입니다.

답변4

지연 시간이 문제가 되지 않고 Windows 인스턴스를 사용하지 않는 경우 다음을 사용할 수도 있습니다.gcpfuse스토리지 디렉터리를 Cloud Storage 버킷에 매핑합니다. 이렇게 하면 여전히 블록 스토리지를 보유하고 여러 영구 디스크를 사용할 필요가 없습니다.

LinuxAcademy의 Matthew Ulasien이 훌륭한 데모를 선보였습니다.여기.

이는 기본적으로 (설정 후) 간단한 명령어를 사용하여 지정한 디렉터리에 Cloud Storage 버킷을 마운트합니다.

gcsfuse example-bucket /path/to/mount

관련 정보