Gibt es eine Möglichkeit, den Quellcode jeder Webseite einer Website abzurufen und in einer einzigen Textdatei zu speichern? Mit den entsprechenden CRFL-Zeichen, als ob die Seiten einzeln unter Internet Explorer abgerufen würden? Ich habe es mit Wget versucht, kann aber scheinbar nicht die richtige Kombination von Optionen finden.
Antwort1
Wenn der Webserver richtig konfiguriert wurde, ist dies nicht möglich. Denn wenn Sie den Quellcode von Websites herunterladen könnten, könnten Sie wertvolle Daten wie die Datenbankauthentifizierungsdetails der Website abrufen.
Sie können jedoch diegerendertes HTMLder Webseite, wie sie in Ihrem Internet-Browser erscheint, mit wget
:
wget -E -H -k -K -p URLHERE
Manche Webserver behandeln Sie jedoch möglicherweise wget
als Roboter (ein Programm, das Daten von Webseiten ausliest und speichert). In diesem Fall können Sie die -e robots=off
Schalter in Ihrem wget
Befehl verwenden.