Speichern auf der Webseite mit der Befehlszeile wie in Google Chrome

Speichern auf der Webseite mit der Befehlszeile wie in Google Chrome

Ich muss eine Webseite (einzelne Seite, nicht die ganze Site) mit all seinen Assets (Bilder/CSS) in der Befehlszeile erfassen.

Mir gefällt sehr, wie Google Chrome das macht - wenn ich eine Webseite speichere, bekomme ich eine einzelne HTML-Datei und ein einzelnes Verzeichnis mit allen Assets. Darüber hinaus werden alle Pfade zu Bildern in lokale geändert und alle Links sind absolut (wenn es "/pricing" war, wird es "http://example.com/preise").

Ich weiß, dass ich es damit machen kann wget, aber mir gefällt das Ergebnis nicht – viele Verzeichnisse (wenn es Bilder von verschiedenen Domänen gäbe) und die HTML-Datei ist irgendwo im Verzeichnis (mit dem Domänennamen) …

Mir gefällt das Ergebnis nach dem Speichern der Seite mit Google Chrome sehr gut und ich möchte wissen, ob Sie einige Befehlszeilen-Crawler kennen, die ein ähnliches Ergebnis liefern.

Oder wissen Sie, wie ich die Konfiguration so vornehme wget, dass es meinen Anforderungen entspricht?

Antwort1

Vielen Dank an alle für eure Vorschläge!

Was ich brauche, ist --no-directoriesder Parameter wget. Dann bekomme ich ein Verzeichnis mit allen Dateien, die ich brauche (HTML-Dateien, Bilder, CSS-Dateien).

Entschuldigen Sie, die Frage war nicht gut formuliert.

verwandte Informationen