Wir haben einen lokalen Server, auf dem wir einen Großteil unserer Webentwicklung durchführen, und übertragen dies dann in eine Live-Umgebung, damit Kunden darauf zugreifen können.
Wir haben häufig riesige Tarballs (dieses hier ist 6,6 GB groß), die wir von unserem lokalen Server auf unseren Remote-Server übertragen müssen.
Als Terminal verwenden wir Putty und WinSCP.
Das Abrufen von Daten über wget geht immer superschnell, aber gibt es eine Möglichkeit, wget auf dem Remote-Server-Terminal zu verwenden, um das Tarball auf unseren lokalen Server abzurufen, und wenn ja, welchen Befehl müssen wir verwenden oder was müssen wir sonst noch konfigurieren/einrichten?
Wir können über SFTP/FTP hochladen, aber bei großen Dateien kann dies Stunden oder sogar Tage dauern!
Antwort1
Sie verwenden besser scp (Secure Copy)
scp yourfile [email protected]:/var/www/
und wenn Sie die Schlüsselauthentifizierung verwenden, entfällt auch die Kennwortabfrage (und es ist auch sicherer)
Wenn Ihr Tarball (wie Sie in einem Kommentar geschrieben haben) *.tar heißt, sind Ihre 6 GB nicht komprimiert. Auf Ihrem lokalen Ubuntu and after transfering a
wird Ihnen also ´bzip2 tarball.tar bunzip2 tarball.tar.bz2` wahrscheinlich viel Zeit sparen
Antwort2
Um es klarzustellen: Sie möchten eine archivierte Datei von Ihrem lokalen Server auf einen Remote-Webserver übertragen, nicht auf einen lokalen?
Wenn dies der Fall ist, wird bei Verwendung von FTP oder Wget (ähnlich einem direkten Download) dieselbe Verbindung verwendet.
Wenn Sie jedoch wirklich wget verwenden möchten, würde ich die Datei vom lokalen Server in das Apache-Verzeichnis (oder ein entsprechendes Verzeichnis, falls installiert) verschieben und dann wget mit dem richtigen Link über das SSH-Terminal auf dem Remote-Server verwenden. Dies bedeutet, dass Ihre Datei frei zugänglich und nicht gesichert ist.
EDIT1: Ich schlage vor, Sie verwenden FTP für sensible Dateien