私は bash スクリプトの初心者ですが、「wget」について聞いたので、streamcloud (またはその他) リンクから .mp4 ファイルだけをダウンロードするスクリプトを書くことにしました。
通常は次のように使用します:
wget -q -O - http://somelink.com | grep keyword
しかし、私が抱えている問題は、ソースを取得するサイトが「ビデオに移動」するまで数秒待たなければならないことであり、明らかにそこには mp4 ファイル リンクが見つかりません。そこで、待機後に表示されるページのソースを取得する方法、つまり、実際にビデオを視聴できるページのソースを取得する方法、そのソースに mp4 リンクが含まれているページを取得する方法 (そうすれば、grep で調べることができます) を知りたいです。
実際には mp4 リンクを手動で取得できますが、シェル スクリプトを使用して自動化したいと思います。
本当にありがとうございます! どんな助けでもありがたいです!
答え1
wget の出力をファイルに保存し、HTML を見て、タイムアウトとリダイレクトがどのように実装されているかを確認する必要があります。使用されている可能性のある手法はいくつかあります。たとえば、最も単純なのは、HTML の先頭に次のような行を追加することです。
<meta http-equiv="refresh" content="2;url=http://newurl/">
これにより、ブラウザは 2 秒後に新しい URL に移動します。URL を抽出し、新しい URL で再度 wget を実行するには、sed などのツールを使用する必要があります。
より複雑なソリューションには JavaScript が関係します。