Temos um servidor local onde realizamos grande parte do nosso desenvolvimento web e depois o enviamos para um ambiente ativo para que os clientes possam acessar.
Muitas vezes acabamos com tarballs enormes (este em particular tem 6,6 Gb) que precisamos levar do nosso servidor local para o nosso servidor remoto.
Usamos putty como terminal e WinSCP.
Buscar dados pelo wget é sempre muito rápido, mas existe alguma maneira de usar o wget no terminal do servidor remoto para obter o tarball em nosso servidor local e, em caso afirmativo, qual comando precisamos usar ou o que mais precisamos configurar/definir acima?
Podemos fazer upload via SFTP/FTP, mas com arquivos enormes, isso pode levar horas ou até dias!
Responder1
é melhor você usar scp (cópia segura)
scp yourfile [email protected]:/var/www/
e se você usar autenticação de chave você também se livra da questão da senha (e é mais seguro também)
se o seu tarball (como você escreveu em um comentário) for chamado *.tar então seus 6GB não estão compactados, então no seu ubuntu local ´bzip2 tarball.tar and after transfering a
bunzip2 tarball.tar.bz2` provavelmente economizará muito tempo
Responder2
Para deixar claro, você deseja transferir um arquivo arquivado do seu servidor local para um servidor web remoto, não local?
Se for assim, usar ftp ou wget (que é semelhante ao download direto) usará a mesma conexão.
Mas se você realmente quiser usar o wget, eu moveria o arquivo no diretório apache (ou equivalente, se instalado) do servidor local e, em seguida, usaria o wget com o link correto no servidor remoto via terminal SSH. Isso significa que seu arquivo estará acessível gratuitamente e não será protegido.
EDIT1: sugiro que você use FTP para arquivos sensíveis