Ich habe einen dedizierten Server in Deutschland mit 120 GB Daten. Da ich einen neuen dedizierten Server in den USA gekauft habe, möchte ich alle Dateien per FTP
Verbindung auf den neuen Server übertragen. Dazu kann ich wget
auf meinem neuen Server den folgenden Befehl verwenden:
nohup wget -m --user=myusername --password=mypassowrd ftp://ftp.mysite.xyz > wget_backup_transfer_log.log 2>&1 &
Ich würde gerne wissen, ob es eine bessere Möglichkeit gibt, dies zu tun, und ob der obige Befehl im Hinblick auf diese riesigen Dateidaten stabil ist.
Dank im Voraus...
PS: Beide Server laufen unter CentOS 6.5
Antwort1
Die Verwendung von tmux/Screen wäre besser geeignet als nohup
. Sie können das Terminal jederzeit wieder anschließen, falls die Verbindung verloren geht.
Für den Dateitransfer selbst empfehle ich die Verwendung vonSSH + Rsync. Rsync kann die Dateiübertragung wieder aufnehmen und diese wird auch verschlüsselt.
Versuchen Sie etwas wie:rsync -av --partial server1:/my/dir server2:/this/dir