웹페이지에서 링크 세트를 다운로드해야 하는 경우가 종종 있는데, 모든 링크를 하나씩 클릭하는 것은 매우 비효율적입니다. 예를 들어, 지금 강의 노트를 다운로드하고 싶습니다.이것웹 페이지. 일괄적으로 다운로드할 수 있는 방법이 있나요? 정보가 도움이 될까봐 Linux와 Firefox를 사용하고 있습니다.
답변1
이 코드 줄은 페이지에서 각 PDF를 다운로드합니다.
빠르고 지저분하며 아마도 최적화될 수 있습니다(특히 컬과 wget을 모두 사용하고 있기 때문에).
for file in $(curl https://ocw.mit.edu/courses/mathematics/18-102-introduction-to-functional-analysis-spring-2009/lecture-notes/ | grep .pdf | cut -d'"' -f2); do wget https://ocw.mit.edu/$file; done