Получить полные данные веб-страницы

Получить полные данные веб-страницы

Я использую busybox tools и хочу взять все http ссылки на веб-странице. Я сохраняю пример страницы ссылок с помощью curl или wget. Однако он сохраняет страницу как html.Как это сделать с помощью команд curl или wget?

example webpage = http://www.turanevdekorasyon.com/wp-includes/test/ 

Следующие данные были сохранены в текстовом формате с помощью браузера Firefox.

Index of /wp-includes/test/

Name <http://www.turanevdekorasyon.com/wp-includes/test/?ND>                                                                             Last modified <http://www.turanevdekorasyon.com/wp-includes/test/?MA>         Size <http://www.turanevdekorasyon.com/wp-includes/test/?SA>  Description  <http://www.turanevdekorasyon.com/wp-includes/test/?DA>

------------------------------------------------------------------------
up Parent Directory <http://www.turanevdekorasyon.com/wp-includes/>                                                                 28-May-2019 02:15        -       
[CMP] v1.0.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.0.zip>                                                                         28-May-2019 02:15       4k       
[CMP] v1.1.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.1.zip>                                                                         28-May-2019 02:15       4k       
[CMP] v1.2.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.2.zip>                                                                         28-May-2019 02:15       4k       

------------------------------------------------------------------------
Proudly Served by LiteSpeed Web Server at www.turanevdekorasyon.com Port 80

решение1

Я бы предложил использовать Фсохранить |Аs функция Chromium и сохранить веб-страницу вФормат MHTпосле включения экспериментальной опции «Сохранить страницу как MHTML», перейдя по ссылке «chrome://flags/#save-page-as-mhtml» в браузере Chrome.

решение2

Какой смысл в использованиизавитокилиwget? Использоватьрысь:

lynx -dump 'www.example.com'

он выведет все ссылки, показанные и скрытые.

Связанный контент