Wie erhalte ich mithilfe eines rekursiven Wget einfach eine Liste aller Links?

Wie erhalte ich mithilfe eines rekursiven Wget einfach eine Liste aller Links?

Ich möchte eine Liste aller Links auf einer bestimmten Webseite (rekursiv) erhalten. Ich kann anscheinend nicht herausfinden, wie das geht, ohne einfach wget -r einzugeben. Ich möchte nicht den ganzen Müll speichern, nur die Links. Irgendwelche Ideen?

Antwort1

Ich verwende diese Befehle, um nur YouTube-Videos abzurufen (https://www.youtube.com/watch?v=XXXXXXXXX)

wget --spider --force-html -r -l2 "https://www.youtube.com"  2>&1 | grep --color  'watch?v='

Sie können dies verwenden und die Grep-Optionen wie folgt ändern: Wenn Sie in meinem Beispiel YouTube-Videos überspringen möchten, verwenden Sie „grep -v“:

wget --spider --force-html -r -l2 "https://www.youtube.com"  2>&1 | grep -v 'watch?v='

verwandte Informationen