.png)
アドバイスが必要です。
私はウェブサーバー VM (LAN、インターネット上ではない) を持っており、そこには 2 つの wiki があります:
GameWiki にクロールせずに、宿題の wiki ページだけを wget したいのですが?
私の目標は、wget を使用して .html のみを取得することです (他のすべてのファイルや画像などは無視します)。(mysqldump や mediawiki のエクスポートは実行したくないのですが、HTML をダブルクリックしたいだけの (IT 以外の) 上司のために wget を実行したいのです)。
この VM 上の GameWiki ではなく HomeWorkWiki のみをクロールするには、wget をどのように実行すればよいですか。
ありがとう
答え1
解決策は、httrack を使用してウィザードを慎重にカスタマイズするか、wget を使用して次の優れたワンライナーを使用することです。
echo "robots = off" > ~/robots.txt ; wget --mirror --convert-links --html-extension --no-parent --wait=0 "http://10.168.0.4/ゲームウィキ「