¿Cómo puedo descargar por lotes un conjunto de archivos PDF desde la página web de un curso?

¿Cómo puedo descargar por lotes un conjunto de archivos PDF desde la página web de un curso?

A menudo necesito descargar conjuntos de enlaces de una página web y es muy ineficiente tener que hacer clic en todos los enlaces uno por uno. Por ejemplo, en este momento quiero descargar las notas de la conferencia enestePágina web. ¿Hay alguna manera de poder descargarlos por lotes? Estoy usando Linux y Firefox por si esa información es útil.

Respuesta1

Esta línea de código descargará cada pdf de la página.
Es rápido y sucio y probablemente podría optimizarse (especialmente porque estoy usando curl y wget):

for file in $(curl https://ocw.mit.edu/courses/mathematics/18-102-introduction-to-functional-analysis-spring-2009/lecture-notes/ | grep .pdf | cut -d'"' -f2); do wget https://ocw.mit.edu/$file; done

información relacionada