30GB のデータを持つ Web サーバーをバックアップする最適な方法は何ですか?

30GB のデータを持つ Web サーバーをバックアップする最適な方法は何ですか?

現在、毎日約 10,000 人のユーザーが利用する Linux サーバーを運用しています。ホスティング プロバイダーはバックアップを提供しており、私もこれを使用しています。ホスティング プロバイダーを信頼していますが、ホストが長時間ダウンしたり倒産したりした場合に備えて、オフサイト バックアップを用意しておきたいと考えています (何が起こるかわかりません)。私の考えでは、tarデータを分割してアーカイブを Amazon S3 アカウントにコピーするのですが、これが最善の策かどうか疑問に思っています。

答え1

30GB のデータをオフサイトにバックアップするのが最善でしょうか?

おそらく Amazon S3 で rsync を使用することをお勧めしますが、30 GB なので帯域幅のコストが高くなり (95% を支払う場合)、最初のプッシュが完了するまでに長い時間がかかることに注意してください。データがそこにアップロードされたら、ファイルを毎晩、毎週、または好みに応じて rsync してください。

しかし、これはバックアップ側のみであり、リカバリを忘れないでください。2 番目のデータセンターに 2 番目のサーバーを購入し、同様のビルドを用意して、毎晩変更を rsync します。

答え2

S3 アカウントは、そのサイズのデータ​​セットには実用的ではありません。10Mbps では、そのすべてのデータを転送するのに約 9 時間かかります。ただし、何をするにしても、リカバリについて考えてください。30GB のデータをサーバーにダウンロードし直すのに 9 時間 (新しいマシンに必要なプロビジョニング時間に加えて) ダウンしていても大丈夫ですか? データセットの増大にも注意し、その選択を再評価し続けます。ある時点で、物理メディア (DVD の束または USB ハード ドライブ) を配送してくれる人を探すのが理にかなっているかもしれませんが、今のところは、完全にネットワーク アクセス可能なシステムで十分でしょう。

答え3

のように聞こえるタースナップまさにあなたが必要としているものかもしれません。しかも安いです。

答え4

以下もご覧くださいジャングルディスク同様に、このサービスは基本的に、S3 に適切な暗号化とインターフェース/アプリを追加し、リアルタイムのデータ バックアップを可能にします。

関連情報