Verwendung von wget mit Streamcloud und Seiten, auf denen man warten muss

Verwendung von wget mit Streamcloud und Seiten, auf denen man warten muss

Ich bin neu beim Bash-Scripting und als ich von „wget“ hörte, beschloss ich, ein Skript zu schreiben, um nur die .mp4-Datei von einem Streamcloud-Link (oder einem anderen Link) herunterzuladen.

Ich verwende es normalerweise so:

wget -q -O - http://somelink.com | grep keyword

Aber mein Problem ist, dass ich die Quelle von der Seite bekomme, auf der ich ein paar Sekunden warten muss, bis ich „zum Video gehe“, und dort kann ich offensichtlich nicht den Link zur MP4-Datei finden. Daher würde ich gerne wissen, wie ich die Quelle der Seite bekommen kann, auf die man nach dem Warten gelangt, auf der man das Video tatsächlich ansehen kann und deren Quelle den MP4-Link enthält (dann könnte ich es greppen).

Eigentlich kann ich den MP4-Link auch manuell abrufen, ich würde das aber gerne über ein Shell-Skript automatisieren.

Vielen Dank! Jede Hilfe ist willkommen!

Antwort1

Sie müssen die Wget-Ausgabe in einer Datei speichern und sich das HTML ansehen, um zu sehen, wie Timeout und Umleitung implementiert werden. Es gibt mehrere Techniken, die verwendet werden könnten. Die einfachste ist beispielsweise eine Zeile wie diese im Kopf des HTML:

<meta http-equiv="refresh" content="2;url=http://newurl/"> 

Dadurch wechselt der Browser nach 2 Sekunden zur neuen URL. Sie müssen ein Tool wie sed verwenden, um die URL zu extrahieren, und dann wget erneut auf der neuen URL ausführen.

Kompliziertere Lösungen beinhalten JavaScript.

verwandte Informationen