Frequentemente movo arquivos grandes de servidor para servidor.
UNIXes vem com compressores gzip e bzip2 padrão. No entanto, que opções abertas existem além destas, especialmente aquelas que utilizam múltiplos núcleos? Estou ciente do pzip2 que estou usando atualmente.
Existem benchmarks e gráficos atualizados de quão rápidos/eficazes são os compressores para ver qual é a compensação entre o tempo e o tamanho do arquivo?
É preferível uma alternativa de código aberto, que seja empacotada para distribuição e suportada em Linux/OSX. Suporte do Windows desnecessário.
Responder1
Você não fala muito sobre suas prioridades, mas parece que o tempo de compactação para arquivos grandes é sua principal prioridade?
Isto afirma ser adequado para esse caso (veja o sinalizador -l):
http://manpages.ubuntu.com/manpages/lucid/man1/lrzip.1.html
No outro extremo da compensação (alta taxa de compactação, longo tempo de compactação), algumas distribuições de software notáveis começaram a usar isso recentemente:
https://en.wikipedia.org/wiki/Xz
Re benchmarking: por que não fazer você mesmo alguns testes rápidos? Os benchmarks costumam ser enganosos porque os resultados podem variar muito dependendo da carga de trabalho precisa e das condições de teste. Ainda assim, aqui está um relatório em alemão (tente o Google Translate) sobre o benchmarking de outra pessoa: