Estoy usando herramientas de Busybox y quiero tomar todos los enlaces http en una página web. Guardo una página de enlace de ejemplo usando curl o wget. Sin embargo, guarda la página como html.¿Cómo hacerlo con los comandos curl o wget?
example webpage = http://www.turanevdekorasyon.com/wp-includes/test/
Los siguientes datos se guardaron en formato de texto con el navegador Firefox.
Index of /wp-includes/test/
Name <http://www.turanevdekorasyon.com/wp-includes/test/?ND> Last modified <http://www.turanevdekorasyon.com/wp-includes/test/?MA> Size <http://www.turanevdekorasyon.com/wp-includes/test/?SA> Description <http://www.turanevdekorasyon.com/wp-includes/test/?DA>
------------------------------------------------------------------------
up Parent Directory <http://www.turanevdekorasyon.com/wp-includes/> 28-May-2019 02:15 -
[CMP] v1.0.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.0.zip> 28-May-2019 02:15 4k
[CMP] v1.1.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.1.zip> 28-May-2019 02:15 4k
[CMP] v1.2.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.2.zip> 28-May-2019 02:15 4k
------------------------------------------------------------------------
Proudly Served by LiteSpeed Web Server at www.turanevdekorasyon.com Port 80
Respuesta1
Yo sugeriría usar el File | ahorrarAs característica de Chromium y guardar la página web enformato MHTdespués de activar la opción experimental "Guardar página como MHTML", visitando el enlace "chrome://flags/#save-page-as-mhtml" en el navegador Chrome.
Respuesta2
¿Cuál es el punto de usarrizooobtener? Usarlince:
lynx -dump 'www.example.com'
generará todos los enlaces, mostrados y ocultos.