Tengo un servidor dedicado en Alemania con 120 GB de datos, ya que compré un nuevo servidor dedicado en EE. UU., me gustaría transferir todos los archivos al nuevo servidor a través de una conexión FTP, para lograr esto puedo usar el siguiente comando wget en mi nuevo servidor:
nohup wget -m --user=myusername --password=mypassowrd ftp://ftp.mysite.xyz > wget_backup_transfer_log.log 2>&1 &
Me gustaría saber si hay alguna manera mejor de hacerlo y si el comando anterior es estable con respecto a los datos de estos archivos enormes.
Gracias de antemano...
PD: Ambos servidores ejecutan CentOS 6.5
Respuesta1
La mayoría de las mejores formas de hacerlo implicanno usar FTP. En cambio, el método preferido seríasincronización:
rsync -avPh mysite.xyz:/home /oldhome
Tanto el origen como el destino pueden ser remotos ( host:/path
). La transferencia se realiza a través de SSH, por lo que solo necesita la rsync
herramienta en ambos servidores y la transferencia está cifrada (lo cual es prudente).
rsync detecta automáticamente qué archivos se modificaron, agregaron o faltan, por lo que es seguro interrumpirlos y reiniciarlos si es necesario. Las opciones básicas son -a -v
, pero también debes agregarlas -P -h
para permitir reanudar un archivo grande a mitad de la transferencia.
(Tal vez también -h -H -A -X
para preservar varios metadatos adicionales como ACL o xattrs).