
Ich muss eine Webseite (einzelne Seite, nicht die ganze Site) mit all seinen Assets (Bilder/CSS) in der Befehlszeile erfassen.
Mir gefällt sehr, wie Google Chrome das macht - wenn ich eine Webseite speichere, bekomme ich eine einzelne HTML-Datei und ein einzelnes Verzeichnis mit allen Assets. Darüber hinaus werden alle Pfade zu Bildern in lokale geändert und alle Links sind absolut (wenn es "/pricing" war, wird es "http://example.com/preise").
Ich weiß, dass ich es damit machen kann wget
, aber mir gefällt das Ergebnis nicht – viele Verzeichnisse (wenn es Bilder von verschiedenen Domänen gäbe) und die HTML-Datei ist irgendwo im Verzeichnis (mit dem Domänennamen) …
Mir gefällt das Ergebnis nach dem Speichern der Seite mit Google Chrome sehr gut und ich möchte wissen, ob Sie einige Befehlszeilen-Crawler kennen, die ein ähnliches Ergebnis liefern.
Oder wissen Sie, wie ich die Konfiguration so vornehme wget
, dass es meinen Anforderungen entspricht?
Antwort1
Vielen Dank an alle für eure Vorschläge!
Was ich brauche, ist --no-directories
der Parameter wget
. Dann bekomme ich ein Verzeichnis mit allen Dateien, die ich brauche (HTML-Dateien, Bilder, CSS-Dateien).
Entschuldigen Sie, die Frage war nicht gut formuliert.