使用 wget 的網站圖像連結列表

使用 wget 的網站圖像連結列表

我有一個問題,儘管我想不出如何將所有圖片連結放入一個列表,我之前問過這個問題,但它被標記為重複,以便在 OP 要求的地方發布下載所有圖片。

我試過了wget -r -P /save/location -A jpeg,jpg http://www.domain.com,但只能下載到電腦上。如何將所有圖像的清單提取到文件中?

答案1

使用spider選項並將輸出通過管道傳輸到grep以僅獲取其中的鏈接

wget --spider --force-html -r -l2 "www.domain.com" 2>&1   | grep '^--' | awk '{ print $3 }'   | grep '\.\(jpeg\|jpg\)$'

這將顯示標準輸出的所有鏈接,您將其定向到一個文件:

wget --spider --force-html -r -l2 "www.domain.com" 2>&1   | grep '^--' | awk '{ print $3 }'   | grep '\.\(jpeg\|jpg\)$'>links.txt

相關內容