¿Cómo puedo obtener una lista de todos los enlaces utilizando un wget recursivo?

¿Cómo puedo obtener una lista de todos los enlaces utilizando un wget recursivo?

Me gustaría obtener una lista de todos los enlaces en una página web determinada (de forma recursiva). Parece que no puedo descubrir cómo hacerlo sin simplemente usar wget -r. No quiero guardar toda la basura, sólo los enlaces. ¿Algunas ideas?

Respuesta1

Utilizo estos comandos para obtener solo videos de YouTube (https://www.youtube.com/watch?v=XXXXXXXXX)

wget --spider --force-html -r -l2 "https://www.youtube.com"  2>&1 | grep --color  'watch?v='

Puedes usar esto y cambiar las opciones de grep como esta: Para mi ejemplo, si quieres omitir videos de YouTube usa 'grep -v ':

wget --spider --force-html -r -l2 "https://www.youtube.com"  2>&1 | grep -v 'watch?v='

información relacionada