Ich verwende die Tools von Busybox und möchte alle HTTP-Links einer Webseite übernehmen. Ich speichere eine Beispiel-Linkseite mit curl oder wget. Allerdings wird die Seite als HTML gespeichert.Wie geht das mit Curl- oder Wget-Befehlen?
example webpage = http://www.turanevdekorasyon.com/wp-includes/test/
Die folgenden Daten wurden im Textformat mit dem Firefox-Browser gespeichert.
Index of /wp-includes/test/
Name <http://www.turanevdekorasyon.com/wp-includes/test/?ND> Last modified <http://www.turanevdekorasyon.com/wp-includes/test/?MA> Size <http://www.turanevdekorasyon.com/wp-includes/test/?SA> Description <http://www.turanevdekorasyon.com/wp-includes/test/?DA>
------------------------------------------------------------------------
up Parent Directory <http://www.turanevdekorasyon.com/wp-includes/> 28-May-2019 02:15 -
[CMP] v1.0.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.0.zip> 28-May-2019 02:15 4k
[CMP] v1.1.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.1.zip> 28-May-2019 02:15 4k
[CMP] v1.2.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.2.zip> 28-May-2019 02:15 4k
------------------------------------------------------------------------
Proudly Served by LiteSpeed Web Server at www.turanevdekorasyon.com Port 80
Antwort1
Ich empfehle die Verwendung von FDatei | speichernAs Funktion von Chromium und speichern Sie die Webseite inMHT-Formatnachdem Sie die experimentelle Option „Seite als MHTML speichern“ aktiviert haben, indem Sie im Chrome-Browser den Link „chrome://flags/#save-page-as-mhtml“ aufrufen.
Antwort2
Was ist der Sinn der VerwendungLockeoderwget? VerwendenLuchs:
lynx -dump 'www.example.com'
Es werden alle angezeigten und ausgeblendeten Links ausgegeben.