
Acabo de escribir este script para hacer una copia de seguridad de todo en un archivo tar.gz. ¿Se ve bien? ¿Cómo puedo hacer que el archivo tar se transfiera a otro servidor después de ejecutarlo? ¿FTP de sí mismo? Voy a poner este script en un cron semanal.
#!/bin/bash
rm ~/backup.tar.gz #removes old backup
BACKUP_DIRS=$HOME #$HOME is builtin, it goes to /home/ and all child dirs
tar -cvzf backup.tar.gz $BACKUP_DIRS
# run tar -zxvf to extract backup.tar.gz
Respuesta1
FTP es el diablo. SCP con pares de claves RSA es una buena manera de mover archivos de forma segura de un servidor a otro. En cuanto al guión, tiene buena pinta.
Respuesta2
Si no tiene muchos archivos que estén cambiando, puede usar rsync en lugar de hacer una gran bola de alquitrán. Rsync solo enviará cambios, por lo que es mucho más eficiente en la red que lo que estás proponiendo. Tal vez comience mirando algo como esto:
http://lifehacker.com/196122/geek-to-live--mirror-files-across-systems-with-rsync?tag=softwarersync
Respuesta3
Dependiendo del tamaño del servidor, estás creando una gran cantidad de duplicados. Si yo fuera usted, solo haría copias de seguridad de los archivos modificados. También debe marcar la fecha y la hora del archivo.
Esto es lo que haría.
- Hacer espalda completa 1 vez por mes o por semana.
- Copias de seguridad incrementales para todos los demás días
- Selle la fecha y la hora del archivo para facilitar la recuperación.
Una forma realmente sencilla de comprobar la fecha de modificación del archivo sería:
date -r $file +%F
Básicamente, puede incluir eso en una función y, si la función no coincide con la fecha de la última copia de seguridad, agregarla al archivo/copia de seguridad. De lo contrario, sigue adelante.
HT