ローカル wiki を wget する簡単な方法... アドバイスが必要です (mysql をダンプせずに)

ローカル wiki を wget する簡単な方法... アドバイスが必要です (mysql をダンプせずに)

アドバイスが必要です。

私はウェブサーバー VM (LAN、インターネット上ではない) を持っており、そこには 2 つの wiki があります:

http://lanwiki/ゲームWiki

http://lanwiki/宿題Wiki

GameWiki にクロールせずに、宿題の wiki ページだけを wget したいのですが?

私の目標は、wget を使用して .html のみを取得することです (他のすべてのファイルや画像などは無視します)。(mysqldump や mediawiki のエクスポートは実行したくないのですが、HTML をダブルクリックしたいだけの (IT 以外の) 上司のために wget を実行したいのです)。

この VM 上の GameWiki ではなく HomeWorkWiki のみをクロールするには、wget をどのように実行すればよいですか。

ありがとう

答え1

解決策は、httrack を使用してウィザードを慎重にカスタマイズするか、wget を使用して次の優れたワンライナーを使用することです。

echo "robots = off" > ~/robots.txt ; wget --mirror --convert-links --html-extension --no-parent --wait=0 "http://10.168.0.4/ゲームウィキ

関連情報