Быстрый способ получить wget мою локальную вики... нужен совет (без дампа mysql)

Быстрый способ получить wget мою локальную вики... нужен совет (без дампа mysql)

Мне нужен совет.

У меня есть веб-сервер vm (локальная сеть, не в интернете), на нем есть 2 вики:

http://lanwiki/GameWiki

http://lanwiki/HomeworkWiki

Я хочу получить только страницы вики с домашними заданиями, не заходя в GameWiki?

Моя цель — просто получить .html (игнорируя все остальные файлы, изображения и т. д.) с помощью wget. (Я не хочу делать экспорт mysqldump или mediawiki, а лучше wget для моего (не ИТ) босса, который просто хочет дважды щелкнуть по html).

Как запустить wget для сканирования только HomeWorkWiki, но не GameWiki на этой виртуальной машине?

Спасибо

решение1

Решением было либо использовать httrack и тщательно настраивать мастер, либо этот блестящий однострочный код с wget:

echo "robots = off" > ~/robots.txt ; wget --mirror --convert-links --html-extension --no-parent --wait=0 "http://10.168.0.4/GameWiki"

Связанный контент