Suponha que eu tenha determinadas páginas, por exemplo www.abc.def/ghi/a.html
, existe alguma opção de comando para baixar todas as páginas em www.abc.def./ghi
(ou seja www.abc.def/ghi/a.html
, www.abc.def/ghi/b.html
, ...)?
Instalei httrack
e webhttrack
não sei como usá-los corretamente.
Responder1
Experimente wget
o download recursivo com restrições:
wget -r --include-directories=ghi --no-parent www.abc.def
Responder2
Encontrei uma solução com httrack
e é a mais simples.
httrack http://www.abc.def/ghi/ -O <output-folder>
a chave é que, por padrão, httrack
use o parâmetro -D:
só pode descer em subdiretórios
Você pode encontrar mais opções digitando httrack --help
.
Aquié um link útil