Использование wget с Streamcloud и страницами, где нужно ждать

Использование wget с Streamcloud и страницами, где нужно ждать

Я новичок в написании скриптов bash, и когда я услышал о «wget», я решил написать скрипт для загрузки только файла .mp4 со ссылки streamcloud (или чего-то подобного).

Я обычно использую его так:

wget -q -O - http://somelink.com | grep keyword

Но проблема в том, что я получаю исходный код с сайта, где мне нужно подождать несколько секунд, пока я "перейду к видео", и это, очевидно, не то место, где я могу найти ссылку на файл mp4. Поэтому я хотел бы знать, как я могу получить исходный код страницы, на которую вы попадаете после ожидания, где вы можете посмотреть видео и чей исходный код содержит ссылку на mp4 (тогда я смогу выполнить grep).

На самом деле я могу получить ссылку на mp4 вручную, но мне бы хотелось автоматизировать этот процесс с помощью скрипта оболочки.

Спасибо большое! Любая помощь будет оценена по достоинству!

решение1

Вам нужно сохранить вывод wget в файл и посмотреть на html, чтобы увидеть, как они реализуют тайм-аут и перенаправление. Существует несколько методов, которые могут использоваться. Например, самый простой — это строка вроде этой в заголовке html:

<meta http-equiv="refresh" content="2;url=http://newurl/"> 

Это заставляет браузер перейти на новый URL через 2 секунды. Вам нужно использовать инструмент вроде sed, чтобы извлечь URL, а затем снова запустить wget на новом URL.

Более сложные решения предполагают использование JavaScript.

Связанный контент