私はbusyboxツールを使用しており、Webページ内のすべてのhttpリンクを取得したいと考えています。curlまたはwgetを使用してサンプルリンクページを保存します。ただし、ページはhtmlとして保存されます。curl または wget コマンドを使用してこれを行うにはどうすればよいでしょうか?
example webpage = http://www.turanevdekorasyon.com/wp-includes/test/
以下のデータはFirefoxブラウザでテキスト形式で保存されました。
Index of /wp-includes/test/
Name <http://www.turanevdekorasyon.com/wp-includes/test/?ND> Last modified <http://www.turanevdekorasyon.com/wp-includes/test/?MA> Size <http://www.turanevdekorasyon.com/wp-includes/test/?SA> Description <http://www.turanevdekorasyon.com/wp-includes/test/?DA>
------------------------------------------------------------------------
up Parent Directory <http://www.turanevdekorasyon.com/wp-includes/> 28-May-2019 02:15 -
[CMP] v1.0.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.0.zip> 28-May-2019 02:15 4k
[CMP] v1.1.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.1.zip> 28-May-2019 02:15 4k
[CMP] v1.2.zip <http://www.turanevdekorasyon.com/wp-includes/test/v1.2.zip> 28-May-2019 02:15 4k
------------------------------------------------------------------------
Proudly Served by LiteSpeed Web Server at www.turanevdekorasyon.com Port 80
答え1
私は、 ふile | 保存あChromiumの機能を利用してウェブページを保存するMHT 形式Chrome ブラウザでリンク「chrome://flags/#save-page-as-mhtml」にアクセスし、実験的な「ページを MHTML として保存」オプションをオンにした後。
答え2
使う意味は?カールまたはwget? 使用オオヤマネコ:
lynx -dump 'www.example.com'
表示されているリンクと非表示になっているリンクをすべて出力します。