Ich habe wget so eingerichtet, dass Seiten von einer Site mit den folgenden Parametern heruntergeladen werden:
wget -r --level=400 --retry-connrefused --waitretry=2 --read-timeout=15 --timeout=15 -t 0 [ site ]
Die Timeout-Funktion funktioniert manchmal richtig, manchmal aber auch nicht, und das Programm zeigt
HTTP-Anfrage gesendet, warte auf Antwort …
und lässt sich nicht beheben, sodass der gesamte Downloadvorgang abgebrochen werden muss.
Gibt es hierfür eine Lösung oder eine Möglichkeit, den rekursiven Download ab der letzten erfolgreich heruntergeladenen Seite fortzusetzen, also nicht die bereits auf der Festplatte gespeicherten Seiten herunterzuladen, sondern stattdessen dort fortzufahren, wo er gestoppt wurde?
Ich bin sicher, dass dies nichts mit der Internetverbindung zu tun hat, da ich jede Seite im Webbrowser besuchen kann, obwohl wget bei der HTTP-Anforderung angehalten wurde.