Использование wget для передачи файлов с локального сервера на удаленный сервер

Использование wget для передачи файлов с локального сервера на удаленный сервер

У нас есть локальный сервер, на котором мы выполняем большую часть наших веб-разработок, а затем переносим их в реальную среду, чтобы клиенты могли получить к ним доступ.

Часто в результате мы получаем огромные tar-архивы (в частности, этот имеет размер 6,6 ГБ), которые нам нужно перенести с локального сервера на удаленный.

В качестве терминала мы используем putty и WinSCP.

Извлечение данных через wget всегда происходит очень быстро, но есть ли способ использовать wget на удаленном серверном терминале, чтобы загрузить tarball на наш локальный сервер, и если да, то какую команду нам нужно использовать или что еще нам нужно настроить/установить?

Мы можем загружать через SFTP / FTP, но для больших файлов это может занять часы или даже дни!

решение1

вам лучше использовать scp (безопасное копирование)

scp yourfile [email protected]:/var/www/

а если вы используете аутентификацию по ключу, вы также избавляетесь от вопроса пароля (и это более безопасно)

если ваш tarball (как вы написали в комментарии) называется *.tar, то ваши 6 ГБ не сжаты, поэтому на вашем локальном Ubuntu ´bzip2 tarball.tar and after transfering abunzip2 tarball.tar.bz2` сэкономит вам, вероятно, много времени

решение2

Чтобы прояснить ситуацию, вы хотите перенести архивный файл с локального сервера на удаленный веб-сервер, а не на локальный?

Если это так, то при использовании ftp или wget (что похоже на прямую загрузку) будет использоваться то же самое соединение.

Но если вы действительно хотите использовать wget, я бы переместил файл в каталог apache (или эквивалент, если он установлен) с локального сервера, а затем использовал бы wget с правильной ссылкой на удаленном сервере через терминал SSH. Это означает, что ваш файл будет свободно доступен и не будет защищен.

EDIT1: Я предлагаю вам использовать FTP для конфиденциальных файлов.

Связанный контент