У меня есть выделенный сервер в Германии со 120 ГБ данных, так как я купил новый выделенный сервер в США, я хотел бы перенести все файлы на новый сервер через FTP-соединение. Для этого я могу использовать следующую команду wget на моем новом сервере:
nohup wget -m --user=myusername --password=mypassowrd ftp://ftp.mysite.xyz > wget_backup_transfer_log.log 2>&1 &
Я хотел бы узнать, есть ли лучший способ сделать это и стабильна ли приведенная выше команда по отношению к этим огромным файлам данных?
Заранее спасибо...
P.S. Оба сервера работают под управлением CentOS 6.5.
решение1
Большинство лучших способов сделать это включаютне использую FTP. Вместо этого предпочтительным методом будетrsync:
rsync -avPh mysite.xyz:/home /oldhome
Источник или пункт назначения могут быть удаленными ( host:/path
). Передача происходит по SSH, поэтому вам нужен только инструмент rsync
на обоих серверах, а передача зашифрована (что разумно).
rsync автоматически определяет, какие файлы были изменены/добавлены/отсутствуют, поэтому можно безопасно прервать и перезапустить при необходимости. Основные параметры — -a -v
, но следует также добавить -P -h
, чтобы разрешить возобновление передачи большого файла.
(Также, возможно, -h -H -A -X
для сохранения различных дополнительных метаданных, таких как ACL или xattrs.)