Ich muss oft mehrere Links von einer Webseite herunterladen und es ist sehr ineffizient, alle Links einzeln anklicken zu müssen. Im Moment möchte ich zum Beispiel die Vorlesungsunterlagen herunterladen aufDasWebseite. Gibt es eine Möglichkeit, sie stapelweise herunterzuladen? Ich verwende Linux und Firefox, falls diese Informationen nützlich sind
Antwort1
Diese Codezeile lädt jedes PDF von der Seite herunter.
Das geht schnell und unkompliziert und könnte wahrscheinlich optimiert werden (insbesondere, da ich sowohl curl als auch wget verwende):
for file in $(curl https://ocw.mit.edu/courses/mathematics/18-102-introduction-to-functional-analysis-spring-2009/lecture-notes/ | grep .pdf | cut -d'"' -f2); do wget https://ocw.mit.edu/$file; done