
Necesito tomar una página web (una sola página, no todo el sitio) con todos sus activos (imágenes/css) en la línea de comando.
Realmente me gusta cómo lo hace Google Chrome: si guardo la página web, obtengo un único archivo html y un único directorio con todos los activos. Además, todas las rutas a las imágenes se cambian a locales y todos los enlaces son absolutos (si era "/precios", se convierte en "http://ejemplo.com/precios").
Sé que puedo hacerlo con wget
, pero no me gusta el resultado: muchos directorios (si había imágenes de diferentes dominios) y el archivo html está en algún lugar del directorio (con el nombre de dominio).
Realmente me gusta el resultado después de guardar la página con Google Chrome y necesito saber si conoce algunos rastreadores de línea de comandos que generen resultados similares.
¿O sabes cómo configurarlo wget
para hacerlo como necesito?
Respuesta1
¡Gracias a todos por sus sugerencias!
Lo que necesito era --no-directories
un parámetro para wget
. Luego obtengo un directorio con todos los archivos que necesito (archivo html, imágenes, archivos css).
Lo siento, la pregunta no estaba bien formulada.