У нас есть локальный сервер, на котором мы выполняем большую часть наших веб-разработок, а затем переносим их в реальную среду, чтобы клиенты могли получить к ним доступ.
Часто в результате мы получаем огромные tar-архивы (в частности, этот имеет размер 6,6 ГБ), которые нам нужно перенести с локального сервера на удаленный.
В качестве терминала мы используем putty и WinSCP.
Извлечение данных через wget всегда происходит очень быстро, но есть ли способ использовать wget на удаленном серверном терминале, чтобы загрузить tarball на наш локальный сервер, и если да, то какую команду нам нужно использовать или что еще нам нужно настроить/установить?
Мы можем загружать через SFTP / FTP, но для больших файлов это может занять часы или даже дни!
решение1
вам лучше использовать scp (безопасное копирование)
scp yourfile [email protected]:/var/www/
а если вы используете аутентификацию по ключу, вы также избавляетесь от вопроса пароля (и это более безопасно)
если ваш tarball (как вы написали в комментарии) называется *.tar, то ваши 6 ГБ не сжаты, поэтому на вашем локальном Ubuntu ´bzip2 tarball.tar and after transfering a
bunzip2 tarball.tar.bz2` сэкономит вам, вероятно, много времени
решение2
Чтобы прояснить ситуацию, вы хотите перенести архивный файл с локального сервера на удаленный веб-сервер, а не на локальный?
Если это так, то при использовании ftp или wget (что похоже на прямую загрузку) будет использоваться то же самое соединение.
Но если вы действительно хотите использовать wget, я бы переместил файл в каталог apache (или эквивалент, если он установлен) с локального сервера, а затем использовал бы wget с правильной ссылкой на удаленном сервере через терминал SSH. Это означает, что ваш файл будет свободно доступен и не будет защищен.
EDIT1: Я предлагаю вам использовать FTP для конфиденциальных файлов.