
¿Tiene sentido comprimir un tarball (o cualquier tipo de archivo, en realidad), por ejemplo, usando gzip
o bzip2
, y al mismo tiempo crear archivos redundantes para él, por ejemplo, un par2
archivo?
El contexto es que estoy razonando sobre cuál es la mejor manera de hacer una copia de seguridad de mis archivos personales. Mi prioridad número uno es evitar la pérdida de datos debido a bitrot y, por lo tanto, a los par2
archivos. La compresión estaría bien, pero no es mi principal preocupación.
La razón por la que dudo de la aplicación combinada de un algoritmo de compresión y un algoritmo de código de borrado es que el primero funciona eliminando la redundancia (creando así archivos más pequeños), mientras que el segundo funciona añadiendo redundancia (añadiendo así la capacidad de realizar operaciones de recuperación de datos). ¿No se anulan mutuamente?
¿Es esta una suposición razonable o me falta algo aquí?