Ich habe eine Frage, da ich nicht weiß, wie ich alle Links zu Bildern einfügen soll.eine Liste, ich habe diese Frage schon einmal gestellt, aber sie wurde als Duplikat markiert, um sie dort zu posten, wo OP darum gebeten hatteherunterladenalle Bilder.
Ich habe es versucht wget -r -P /save/location -A jpeg,jpg http://www.domain.com
, aber es wird nur auf den Computer heruntergeladen. Wie kann ich eine Liste aller Bilder in eine Datei extrahieren?
Antwort1
verwenden Sie die Spider-Option und leiten Sie die Ausgabe an grep weiter, um nur die Links herauszuholen
wget --spider --force-html -r -l2 "www.domain.com" 2>&1 | grep '^--' | awk '{ print $3 }' | grep '\.\(jpeg\|jpg\)$'
Dadurch werden alle Links zur Standardausgabe angezeigt. Sie leiten sie in eine Datei um:
wget --spider --force-html -r -l2 "www.domain.com" 2>&1 | grep '^--' | awk '{ print $3 }' | grep '\.\(jpeg\|jpg\)$'>links.txt