Server-zu-Server-Dateiübertragung über wget

Server-zu-Server-Dateiübertragung über wget

Ich habe einen dedizierten Server in Deutschland mit 120 GB Daten. Da ich einen neuen dedizierten Server in den USA gekauft habe, möchte ich alle Dateien per FTPVerbindung auf den neuen Server übertragen. Dazu kann ich wgetauf meinem neuen Server den folgenden Befehl verwenden:

nohup wget -m --user=myusername --password=mypassowrd ftp://ftp.mysite.xyz > wget_backup_transfer_log.log 2>&1 &

Ich würde gerne wissen, ob es eine bessere Möglichkeit gibt, dies zu tun, und ob der obige Befehl im Hinblick auf diese riesigen Dateidaten stabil ist.

Dank im Voraus...

PS: Beide Server laufen unter CentOS 6.5

Antwort1

Die Verwendung von tmux/Screen wäre besser geeignet als nohup. Sie können das Terminal jederzeit wieder anschließen, falls die Verbindung verloren geht.

Für den Dateitransfer selbst empfehle ich die Verwendung vonSSH + Rsync. Rsync kann die Dateiübertragung wieder aufnehmen und diese wird auch verschlüsselt.

Versuchen Sie etwas wie:rsync -av --partial server1:/my/dir server2:/this/dir

verwandte Informationen