wget funktioniert nicht im rekursiven Modus

wget funktioniert nicht im rekursiven Modus

GNU Wget 1.16 built on linux-gnueabihfAnRaspberry Pi 3

Wie zwinge ich wget, die gesamte Site abzurufen (Links folgen, sich wie ein Roboter verhalten) und nicht nur den ersten Index?

Ich habe es versucht:

wget -r http://aol.com
wget -r -l0 http://aol.com
wget -r -m -l0 http://aol.com

Jeder Befehl endete mit dem gleichen:

--2017-11-29 08:05:42--  http://aol.com/
Resolving aol.com (aol.com)... 149.174.149.73, 64.12.249.135, 149.174.110.105, ...
Connecting to aol.com (aol.com)|149.174.149.73|:80... connected.
HTTP request sent, awaiting response... 301 Moved Permanently
Location: https://www.aol.com/ [following]
--2017-11-29 08:05:42--  https://www.aol.com/
Resolving www.aol.com (www.aol.com)... 34.233.220.13, 34.235.7.32, 52.6.64.98, ...
Connecting to www.aol.com (www.aol.com)|34.233.220.13|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Last-modified header missing -- time-stamps turned off.
--2017-11-29 08:05:44--  https://www.aol.com/
Reusing existing connection to www.aol.com:443.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Saving to: ‘aol.com/index.html’

aol.com/index.html                                              [  <=>                                                                                                                                      ] 359.95K   751KB/s   in 0.5s

2017-11-29 08:05:45 (751 KB/s) - ‘aol.com/index.html’ saved [368585]

FINISHED --2017-11-29 08:05:45--
Total wall clock time: 2.8s
Downloaded: 1 files, 360K in 0.5s (751 KB/s)

Was mache ich falsch?

Antwort1

Ihr Problem entsteht, weil alle Links aol.com/index.htmlauf unterschiedliche Hosts verweisen. Um rekursiv von allen Hosts herunterzuladen, können Sie die Option hinzufügen --span-hosts. Um alle AOL-Hosts zuzulassen, schien es bei mir zu funktionieren, die --span-hosts '*.aol.com'Option hinzuzufügen.

wget --span-hosts '*.aol.com' -r http://www.aol.com

Sie können die Links auflisten mit

grep -Po '(?<=href=")[^"]*' aol.com/index.html

Sie werden sehen, dass die meisten davon auf www.aol.com verweisen. Sie können also auch

wget -r http://www.aol.com

Antwort2

Mit dem Folgenden können Sie wgetalle mit einer Website verknüpften Seiten rekursiv herunterladen.

wget -r $(curl http://aol.com | grep -Po '(?<=href=")[^"]*')

Ersetzen Sie die Beispiel-Website durch die gewünschte. Dies wird wie folgt abgerufen:Deapth for search in a graph

Arbeitsweise curlwird holen index.html. Es wird weitergeleitet, grepum alle Links durch Übereinstimmung zu finden . Das Ergebnis wird als Variable hrefübergeben . Holen Sie die Links nacheinander aus der Variable.wgetwget

verwandte Informationen