
s3cmd が特定のファイルをアップロードするためにどのくらいのメモリを使用するかを予測する方法を知りたいです。大きなファイルの場合、システム メモリが大量に使用されるのではないかと心配しています。また、チャンク サイズを増やすと、チャンク/マルチパートあたりのメモリ使用量は増えますか?
ドキュメントを確認しました
しかし、メモリ管理に関連するものは何も見つかりませんでした。
私は実験して、200GBのファイルをアップロードしようとしました。
/usr/bin/s3cmd put largefile_200G.txt s3://mybucket/testlargefile/largefile_200G.txt --multipart-chunk-size-mb=250
私が実際に確認したところ、作成されたプロセスのメモリ使用量は一定で、サーバー上で使用可能なメモリに比例して選択されていました (サーバー上で使用可能なメモリが多いほど、s3cmd プロセスに割り当てられるメモリが多くなります)。
メモリ管理がどのように機能するか、また、私が試した実験のようにメモリ管理が常に一定になるかどうか(つまり、スパイクなしで)を大まかに知っている人はいませんか?