Rekursives wget, füge jeder gefundenen URL etwas hinzu

Rekursives wget, füge jeder gefundenen URL etwas hinzu

Mein Hauptziel ist es, die Seitenquelle für eine Reihe meiner MediaWiki-Seiten einfach zu sichern. Ich habe alle Seiten, die ich herunterladen möchte, auf meiner Benutzernamenseite aufgelistet (https://wiki.example.com/index.php?title=User:Benutzername) und derzeit kann ich:

wget -r --level=1 https://wiki.example.com/index.php?title=User:username

Dadurch wird die HTML-Ausgabe von MediaWiki für jede von mir verlinkte Seite heruntergeladen. Mir wäre jedoch der Quelltext jeder Seite lieber.

Mit Mediawiki können wir action=rawder GET-Anfrage Folgendes hinzufügen:https://wiki.example.com/index.php?title=Benutzer:Benutzername&action=rawerhält die Quelle von Benutzer:Benutzername.

Daher möchte ich, dass wgets -r "&action=raw" an die URL jedes anderen Links anhängt, den es findet und herunterlädt, aber ich bin mir nicht sicher, wie. In anderen Beiträgen wird davon gesprochen, wie das geht, wget -A '&action=raw'aber dieses Accept-Flag scheint nicht zu funktionieren.

verwandte Informationen