A menudo necesito descargar conjuntos de enlaces de una página web y es muy ineficiente tener que hacer clic en todos los enlaces uno por uno. Por ejemplo, en este momento quiero descargar las notas de la conferencia enestePágina web. ¿Hay alguna manera de poder descargarlos por lotes? Estoy usando Linux y Firefox por si esa información es útil.
Respuesta1
Esta línea de código descargará cada pdf de la página.
Es rápido y sucio y probablemente podría optimizarse (especialmente porque estoy usando curl y wget):
for file in $(curl https://ocw.mit.edu/courses/mathematics/18-102-introduction-to-functional-analysis-spring-2009/lecture-notes/ | grep .pdf | cut -d'"' -f2); do wget https://ocw.mit.edu/$file; done