У меня есть сервер Linux, к которому я могу подключиться только удаленно. Я хочу сделать его резервную копию, но это должно быть через Интернет, и я выбрал Google Drive для хранения резервных копий. Единственная часть головоломки, которую я пока не знаю, это как упаковать и сжать все файлы. Мне нужно сжатие, потому что место на Google Drive ограничено, и это также сократит время загрузки.
Конечно, я мог бы использовать стандартный tar+gzip/bzip или zip, или даже что-то более сложное, например 7z, для наилучшего сжатия.
Но вот что меня интересует - многие из файлов, которые нужно будет сделать резервными, будут такими, как изображения JPEG, которые вообще плохо сжимаются, независимо от того, какой компрессор я использую. Было бы быстрее, если бы эти файлы были скопированы в целевой архив как есть, а не сжаты. Другие файлы - текстовые, которые лучше сжимаются с помощью специального алгоритма (вы уже поняли, что я делаю резервные копии веб-сайтов?).
Есть ли какой-то архиватор, который распознает такие файлы (по расширению файла было бы неплохо) и применяет к ним другой алгоритм? Кажется, я где-то видел такой, но не помню, какой именно и есть ли у него версия для Linux.
Или, может быть, я слишком много об этом думаю?
решение1
ПытатьсяFreeArc. Он может автоматически выбирать сжатие LZMA/PPD/Multimedia:
Включает LZMA, PPMD, TrueAudio и общие алгоритмы сжатия мультимедиа с автоматическим переключением по типу файла