Tengo una pregunta, por mucho que creo que no se me ocurre la manera de poner todos los enlaces de las imágenes enuna lista, Hice esta pregunta antes pero se marcó como duplicada para publicarla donde OP solicitódescargartodas las imágenes.
Lo intenté wget -r -P /save/location -A jpeg,jpg http://www.domain.com
pero solo se descarga a la computadora. ¿Cómo puedo extraer una lista de todas las imágenes a un archivo?
Respuesta1
use la opción de araña y canalice la salida a grep para obtener solo los enlaces de ellos
wget --spider --force-html -r -l2 "www.domain.com" 2>&1 | grep '^--' | awk '{ print $3 }' | grep '\.\(jpeg\|jpg\)$'
esto mostrará todos los enlaces a la salida estándar, lo dirige a un archivo:
wget --spider --force-html -r -l2 "www.domain.com" 2>&1 | grep '^--' | awk '{ print $3 }' | grep '\.\(jpeg\|jpg\)$'>links.txt