
Me gustaría obtener una lista de todos los enlaces en una página web determinada (de forma recursiva). Parece que no puedo descubrir cómo hacerlo sin simplemente usar wget -r. No quiero guardar toda la basura, sólo los enlaces. ¿Algunas ideas?
Respuesta1
Utilizo estos comandos para obtener solo videos de YouTube (https://www.youtube.com/watch?v=XXXXXXXXX)
wget --spider --force-html -r -l2 "https://www.youtube.com" 2>&1 | grep --color 'watch?v='
Puedes usar esto y cambiar las opciones de grep como esta: Para mi ejemplo, si quieres omitir videos de YouTube usa 'grep -v ':
wget --spider --force-html -r -l2 "https://www.youtube.com" 2>&1 | grep -v 'watch?v='