
Tenho um arquivo de texto contendo até 100 URLs. Consigo enrolar o código-fonte da página usando:
cat /path/to/url.txt|xargs curl -o /path/to/output.txt
Isso fará o download da fonte da página para todos os URLs (como posso ver isso acontecendo na linha de comando), mas salvará apenas (em output.txt
) a fonte da página para o URL no topo da lista.
Como eu salvaria a fonte da página para cada URL, seja no mesmo arquivo de texto ou, se necessário, em arquivos de texto individuais.
Obrigado,
Responder1
Com o GNU Parallel você pode obter vários URLs em paralelo e não precisa se preocupar com a mistura das saídas:
cat /path/to/url.txt | parallel curl > /path/to/output.txt
Responder2
for i in $(cat urls.txt); do curl "$i" >> output.txt; done
Responder3
com uma lista simples de URLs em cada linha, isso deve funcionar e gerar tudo em um único arquivo:
while read in; do xargs curl -K "$in" >> /path/to/output.txt; done < /path/to/url.txt