我有一個問題,儘管我想不出如何將所有圖片連結放入一個列表,我之前問過這個問題,但它被標記為重複,以便在 OP 要求的地方發布下載所有圖片。
我試過了wget -r -P /save/location -A jpeg,jpg http://www.domain.com
,但只能下載到電腦上。如何將所有圖像的清單提取到文件中?
答案1
使用spider選項並將輸出通過管道傳輸到grep以僅獲取其中的鏈接
wget --spider --force-html -r -l2 "www.domain.com" 2>&1 | grep '^--' | awk '{ print $3 }' | grep '\.\(jpeg\|jpg\)$'
這將顯示標準輸出的所有鏈接,您將其定向到一個文件:
wget --spider --force-html -r -l2 "www.domain.com" 2>&1 | grep '^--' | awk '{ print $3 }' | grep '\.\(jpeg\|jpg\)$'>links.txt