s3cmd многокомпонентное управление памятью с размером фрагмента

s3cmd многокомпонентное управление памятью с размером фрагмента

Мне было интересно, как предсказать, сколько памяти s3cmd будет использовать для загрузки определенного файла. Я обеспокоен тем, что для больших файлов он может использовать слишком много системной памяти. И если я увеличу размер фрагмента, будет ли он использовать больше памяти на фрагмент/multipart?

Я проверил документацию.

https://s3tools.org/s3cmd

но не смог найти ничего, связанного с управлением памятью.

Я экспериментировал и пытался загрузить файл размером 200 ГБ с помощью чего-то вроде

/usr/bin/s3cmd put largefile_200G.txt s3://mybucket/testlargefile/largefile_200G.txt --multipart-chunk-size-mb=250

и я сам видел, что использование памяти для созданного процесса было постоянным и выбиралось пропорционально доступной памяти на сервере (чем больше памяти доступно на сервере, тем больше ее выделяется для процесса s3cmd).

Кто-нибудь знает, как примерно работает управление памятью и будет ли оно всегда постоянным, как в эксперименте, который я провел (то есть без пиков)?

Связанный контент