Tenho uma dúvida, por mais que eu ache que não consigo pensar em como colocar todos os links das fotosuma lista, eu fiz essa pergunta antes, mas ela foi marcada como duplicada para postar onde o OP pediudownloadtodas as fotos.
Eu tentei wget -r -P /save/location -A jpeg,jpg http://www.domain.com
, mas só está baixando para o computador. Como posso extrair uma lista de todas as imagens para um arquivo?
Responder1
use a opção spider e canalize a saída para grep para obter apenas os links deles
wget --spider --force-html -r -l2 "www.domain.com" 2>&1 | grep '^--' | awk '{ print $3 }' | grep '\.\(jpeg\|jpg\)$'
isso exibirá todos os links para a saída padrão, você o direciona para um arquivo:
wget --spider --force-html -r -l2 "www.domain.com" 2>&1 | grep '^--' | awk '{ print $3 }' | grep '\.\(jpeg\|jpg\)$'>links.txt