Streamcloud 및 기다려야 하는 페이지와 함께 wget 사용

Streamcloud 및 기다려야 하는 페이지와 함께 wget 사용

저는 bash 스크립팅을 처음 접했고 "wget"에 대해 들었을 때 streamcloud(또는 기타) 링크에서 .mp4 파일만 다운로드하는 스크립트를 작성하기로 결정했습니다.

나는 일반적으로 다음과 같이 사용합니다.

wget -q -O - http://somelink.com | grep keyword

하지만 제가 겪고 있는 문제는 "비디오로 이동"할 때까지 몇 초를 기다려야 하는 사이트에서 소스를 가져오고 있는데 분명히 mp4 파일 링크를 찾을 수 있는 곳이 아니라는 것입니다. 따라서 대기 후에 표시되는 페이지의 소스, 실제로 비디오를 볼 수 있는 페이지, 소스에 mp4 링크가 포함된 소스(그러면 grep할 수 있음)를 어떻게 얻을 수 있는지 알고 싶습니다.

실제로 mp4 링크를 수동으로 얻을 수 있지만 쉘 스크립트를 통해 자동화하고 싶습니다.

정말 감사합니다! 어떤 도움이라도 주시면 감사하겠습니다!

답변1

wget 출력을 파일에 저장하고 html을 확인하여 시간 초과 및 리디렉션을 구현하는 방법을 확인해야 합니다. 사용될 수 있는 몇 가지 기술이 있습니다. 예를 들어, 가장 간단한 것은 html의 머리 부분에 다음과 같은 줄입니다.

<meta http-equiv="refresh" content="2;url=http://newurl/"> 

이렇게 하면 브라우저가 2초 후에 새 URL로 이동하게 됩니다. sed와 같은 도구를 사용하여 URL을 추출한 다음 새 URL에서 wget을 다시 실행해야 합니다.

더 복잡한 솔루션에는 자바스크립트가 포함됩니다.

관련 정보