Estou usando ferramentas do busybox e quero obter todos os links http de uma página da web. Salvei um exemplo de página de link usando curl ou wget. No entanto, ele salva a página como html.Como fazer isso com comandos curl ou wget?
example webpage = http://www.turanevdekorasyon.com/wp-includes/test/
Os dados a seguir foram salvos em formato de texto com o navegador Firefox.
Index of /wp-includes/test/
Name <http://www.turanevdekorasyon.com/wp-includes/test/?ND> Last modified <http://www.turanevdekorasyon.com/wp-includes/test/?MA> Size <http://www.turanevdekorasyon.com/wp-includes/test/?SA> Description <http://www.turanevdekorasyon.com/wp-includes/test/?DA>
------------------------------------------------------------------------
up Parent Directory <http://www.turanevdekorasyon.com/wp-includes/> 28-May-2019 02:15 -
[CMP] v1.0.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.0.zip> 28-May-2019 02:15 4k
[CMP] v1.1.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.1.zip> 28-May-2019 02:15 4k
[CMP] v1.2.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.2.zip> 28-May-2019 02:15 4k
------------------------------------------------------------------------
Proudly Served by LiteSpeed Web Server at www.turanevdekorasyon.com Port 80
Responder1
Eu sugiro usar o Fou | salvarArecurso do Chromium e salve a página da web emFormato MHTdepois de ativar a opção experimental "Salvar página como MHTML", visitando o link "chrome://flags/#save-page-as-mhtml" no navegador Chrome.
Responder2
Qual é o sentido de usarondulaçãoouwget? Usarlince:
lynx -dump 'www.example.com'
ele exibirá todos os links, mostrados e ocultos.