Мне часто нужно скачать наборы ссылок с веб-страницы, и это очень неэффективно — нажимать на все ссылки одну за другой. Например, в данный момент я хочу скачать конспекты лекций поэтотвеб-страница. Есть ли способ загрузить их пакетно? Я использую Linux и Firefox, если эта информация будет полезна
решение1
Эта строка кода загрузит каждый pdf со страницы.
Это быстро и грязно и, вероятно, может быть оптимизировано (тем более, что я использую и curl, и wget):
for file in $(curl https://ocw.mit.edu/courses/mathematics/18-102-introduction-to-functional-analysis-spring-2009/lecture-notes/ | grep .pdf | cut -d'"' -f2); do wget https://ocw.mit.edu/$file; done