Tenho um servidor dedicado na Alemanha com 120GB de dados, já que comprei um novo servidor dedicado nos EUA, gostaria de transferir todos os arquivos para o novo servidor através de conexão FTP, para conseguir isso posso usar o seguinte comando wget em meu novo servidor:
nohup wget -m --user=myusername --password=mypassowrd ftp://ftp.mysite.xyz > wget_backup_transfer_log.log 2>&1 &
Gostaria de saber se existe alguma maneira melhor de fazer isso e o comando acima é estável em relação a esses dados de arquivos enormes?
Desde já, obrigado...
PS Ambos os servidores rodando CentOS 6.5
Responder1
A maioria das melhores maneiras de fazer isso envolvenão usando FTP. Em vez disso, o método preferido seriasincronizar novamente:
rsync -avPh mysite.xyz:/home /oldhome
A origem ou o destino podem ser remotos ( host:/path
). A transferência acontece por SSH, então você só precisa da rsync
ferramenta em ambos os servidores, e a transferência é criptografada (o que é aconselhável).
O rsync detecta automaticamente quais arquivos foram modificados/adicionados/ausentes, portanto é seguro interromper e reiniciar, se necessário. As opções básicas são -a -v
, mas você também deve adicionar -P -h
para permitir a retomada de um arquivo grande no meio da transferência.
(Talvez também -h -H -A -X
para preservar vários metadados adicionais, como ACLs ou xattrs.)