ウェブページからリンクのセットをダウンロードする必要があることがよくありますが、すべてのリンクを1つずつクリックするのは非常に非効率的です。たとえば、現時点では、これウェブページ。一括ダウンロードする方法はありますか?LinuxとFirefoxを使用していますが、この情報が役に立つかもしれません
答え1
このコード行は、ページから各 PDF をダウンロードします。
これは手っ取り早く、おそらく最適化できるでしょう (特に、curl と wget の両方を使用しているため)。
for file in $(curl https://ocw.mit.edu/courses/mathematics/18-102-introduction-to-functional-analysis-spring-2009/lecture-notes/ | grep .pdf | cut -d'"' -f2); do wget https://ocw.mit.edu/$file; done