
Мне было интересно, как предсказать, сколько памяти s3cmd будет использовать для загрузки определенного файла. Я обеспокоен тем, что для больших файлов он может использовать слишком много системной памяти. И если я увеличу размер фрагмента, будет ли он использовать больше памяти на фрагмент/multipart?
Я проверил документацию.
но не смог найти ничего, связанного с управлением памятью.
Я экспериментировал и пытался загрузить файл размером 200 ГБ с помощью чего-то вроде
/usr/bin/s3cmd put largefile_200G.txt s3://mybucket/testlargefile/largefile_200G.txt --multipart-chunk-size-mb=250
и я сам видел, что использование памяти для созданного процесса было постоянным и выбиралось пропорционально доступной памяти на сервере (чем больше памяти доступно на сервере, тем больше ее выделяется для процесса s3cmd).
Кто-нибудь знает, как примерно работает управление памятью и будет ли оно всегда постоянным, как в эксперименте, который я провел (то есть без пиков)?