Supongamos que tengo determinadas páginas, por ejemplo www.abc.def/ghi/a.html
, ¿hay alguna opción de comando para descargar todas las páginas www.abc.def./ghi
(es decir www.abc.def/ghi/a.html
,, www.abc.def/ghi/b.html
...)?
Los he instalado httrack
y webhttrack
no sé cómo usarlos correctamente.
Respuesta1
Pruebe wget
la descarga recursiva con restricciones:
wget -r --include-directories=ghi --no-parent www.abc.def
Respuesta2
Encontré una solución con httrack
y es la más simple.
httrack http://www.abc.def/ghi/ -O <output-folder>
la clave es que, por defecto, httrack
use el parámetro -D:
sólo puede bajar a subdirectorios
Puedes encontrar más opciones escribiendo httrack --help
.
Aquíes un enlace útil