來自包含 URL 的文字檔案的捲曲頁面來源

來自包含 URL 的文字檔案的捲曲頁面來源

我有一個最多包含 100 個 URL 的文字檔案。我可以使用以下方法從它們中獲取頁面來源:

cat /path/to/url.txt|xargs curl -o /path/to/output.txt

這將下載所有 URL 的頁面來源(正如我可以在命令列中看到的那樣),但它只會保存(在output.txt)清單頂部 URL 的頁面來源。

我將如何保存每個 URL 的頁面原始碼,無論是在同一個文字檔案中還是在必要時在單獨的文字檔案中。

謝謝,

答案1

使用 GNU Parallel,您可以並行取得多個 URL,並且無需擔心輸出混合:

cat /path/to/url.txt | parallel curl > /path/to/output.txt

答案2

for i in $(cat urls.txt); do curl "$i" >> output.txt; done

答案3

每行都有一個簡單的 url 列表,這應該可以完成工作並將所有內容輸出到單個文件中:

while read in; do xargs curl -K "$in" >> /path/to/output.txt; done < /path/to/url.txt

相關內容