30GB의 데이터가 포함된 웹 서버를 백업하는 가장 좋은 방법은 무엇입니까?

30GB의 데이터가 포함된 웹 서버를 백업하는 가장 좋은 방법은 무엇입니까?

저는 현재 매일 약 10,000명의 사용자가 사용하는 Linux 서버를 운영하고 있습니다. 호스팅 공급자는 나도 사용하고 있는 백업을 제공합니다. 나는 내 호스팅 업체를 신뢰하지만 호스트가 장기간 다운되거나 파산할 경우를 대비해 오프사이트 백업을 갖고 싶습니다(모르겠습니다). 내 생각은 tar데이터를 분할하고 아카이브를 내 Amazon S3 계정에 복사하는 것이었지만 그것이 최선의 아이디어인지 궁금합니다.

답변1

30GB의 데이터를 오프사이트 백업하는 것이 가장 좋았나요?

아마도 Amazon S3와 rsync라고 말하고 싶지만 30GB이므로 대역폭 비용이 높을 것이고(95%를 지불하는 경우) 초기 푸시를 거기까지 가져오는 데 오랜 시간이 걸릴 것이라는 점을 명심하십시오. 데이터가 거기에 있으면 밤마다/매주/원하는 대로 파일을 재동기화하세요.

하지만,그것은 백업 측면일 뿐이므로 복구를 잊지 마십시오. 나는 두 번째 데이터 센터에서 두 번째 서버를 구입하고 유사한 빌드를 갖고 밤마다 변경 사항을 재동기화합니다.

답변2

S3 계정은 해당 크기의 데이터 세트에는 실용적이지 않습니다. 10Mbps에서는 모든 데이터를 전송하는 데 약 9시간이 걸립니다. 하지만 무엇을 하든 복구에 대해 생각해 보십시오. 30GB의 데이터를 서버에 다시 다운로드하는 데 걸리는 9시간(새 시스템에 필요한 프로비저닝 시간 외에) 동안 다운되어도 괜찮습니까? 데이터 세트 증가에도 주의를 기울이고 해당 선택을 계속 재평가하십시오. 어느 시점에서는 물리적 미디어(DVD 또는 USB 하드 드라이브 등)를 기꺼이 배송해 줄 사람을 찾는 것이 합리적일 수 있지만 현재로서는 순수하게 네트워크 액세스가 가능한 시스템이 적합할 것입니다.

답변3

처럼 들리다타르스냅당신에게 꼭 필요한 것일 수도 있습니다. 너무 싸다.

답변4

당신은 또한 조사하고 싶을 수도 있습니다정글디스크또한. 이 서비스는 기본적으로 S3에 적절한 암호화 및 인터페이스/앱을 추가하여 실시간 데이터 백업을 허용합니다.

관련 정보