Tenemos un servidor local donde llevamos a cabo gran parte de nuestro desarrollo web y luego lo llevamos a un entorno en vivo para que los clientes puedan acceder.
A menudo terminamos con archivos comprimidos enormes (este en particular tiene 6,6 Gb) que necesitamos llevar desde nuestro servidor local a nuestro servidor remoto.
Usamos PuTTY como terminal y WinSCP.
Obtener datos a través de wget siempre es súper rápido, pero ¿hay alguna forma de usar wget en la terminal del servidor remoto para obtener el tarball en nuestro servidor local y, de ser así, qué comando necesitamos usar o qué más necesitamos configurar? ¿arriba?
Podemos cargar a través de SFTP/FTP, pero con archivos grandes, ¡esto puede llevar horas o incluso días!
Respuesta1
será mejor que uses scp (copia segura)
scp yourfile [email protected]:/var/www/
y si usa autenticación de clave, también eliminará la pregunta de contraseña (y también es más seguro)
Si su archivo tar (como escribió en un comentario) se llama *.tar, entonces sus 6 GB no están comprimidos, por lo que en su ubuntu local 'bzip2 tarball.tar and after transfering a
bunzip2 tarball.tar.bz2' probablemente le ahorrará mucho tiempo.
Respuesta2
Para dejar las cosas claras, ¿desea transferir un archivo archivado desde su servidor local a un servidor web remoto, no local?
Si es así, usar ftp o wget (que es similar a una descarga directa) usará la misma conexión.
Pero si realmente desea usar wget, movería el archivo al directorio apache (o equivalente si está instalado) del servidor local y luego usaría wget con el enlace correcto en el servidor remoto a través del terminal SSH. Esto significa que su archivo será de libre acceso y no estará protegido.
EDITAR1: te sugiero que uses FTP para archivos sensibles