
特定の Web ページにあるすべてのリンクのリストを (再帰的に) 取得したいのですが、 wget -r を実行せずにこれを行う方法がわかりません。すべてのジャンク ファイルを保存したいのではなく、リンクだけを保存したいのです。何かアイデアはありますか?
答え1
私はこのコマンドを使ってYouTube動画だけを取得します(https://www.youtube.com/watch?v=XXXXXXXXX)
wget --spider --force-html -r -l2 "https://www.youtube.com" 2>&1 | grep --color 'watch?v='
これを使用して、grep オプションを次のように変更できます。私の例では、YouTube ビデオをスキップする場合は、「grep -v」を使用します。
wget --spider --force-html -r -l2 "https://www.youtube.com" 2>&1 | grep -v 'watch?v='