Ich habe einen dedizierten Server in Deutschland mit 120 GB Daten. Da ich einen neuen dedizierten Server in den USA gekauft habe, möchte ich alle Dateien über eine FTP-Verbindung auf den neuen Server übertragen. Dazu kann ich auf meinem neuen Server den folgenden wget-Befehl verwenden:
nohup wget -m --user=myusername --password=mypassowrd ftp://ftp.mysite.xyz > wget_backup_transfer_log.log 2>&1 &
Ich würde gerne wissen, ob es eine bessere Möglichkeit gibt, dies zu tun, und ob der obige Befehl im Hinblick auf diese riesigen Dateidaten stabil ist.
Dank im Voraus...
PS: Beide Server laufen unter CentOS 6.5
Antwort1
Die meisten besseren Möglichkeiten, dies zu tun, beinhaltenkein FTP verwenden. Stattdessen wäre die bevorzugte Methodersync:
rsync -avPh mysite.xyz:/home /oldhome
Sowohl die Quelle als auch das Ziel können remote sein ( host:/path
). Die Übertragung erfolgt über SSH, sodass Sie das rsync
Tool auf beiden Servern nur benötigen, und die Übertragung ist verschlüsselt (was sinnvoll ist).
rsync erkennt automatisch, welche Dateien geändert/hinzugefügt/fehlen, sodass es bei Bedarf sicher unterbrochen und neu gestartet werden kann. Die grundlegenden Optionen sind -a -v
, aber Sie sollten auch hinzufügen, -P -h
um die Fortsetzung einer großen Datei während der Übertragung zu ermöglichen.
(Vielleicht auch -h -H -A -X
um verschiedene zusätzliche Metadaten wie ACLs oder Xattrs beizubehalten.)