Es gibt eine Website, die ein PDF-Buch oder einen Artikel enthält. zum Beispiel
und die anderen Seiten unterscheiden sich nur in „seq=“.
Gibt es eine Möglichkeit oder Software, alle Seiten zu generieren und herunterzuladen? Danke.
Antwort1
Antwort2
Dies ist im Vergleich zu anderen Ansätzen wahrscheinlich umständlicher, dieses Perl-Skript sollte jedoch funktionieren:
#!/usr/bin/perl
use warnings;
use strict;
my $seq = 1;
my $maxseq = 100;
while($seq <= $maxseq)
{
my $cmdstring = 'wget https://example.com/cgi/imgsrv/download/pdf?id=mdp.39015015603924;orient=0;size=100;seq=' . $seq . ';attachment=0';
print `$cmdstring`;
$seq++
}
besorgen Sie sich einen Perl-Interpreter und einen Port von wget für Ihr System, und es werden alle Dateien heruntergeladen, beginnend bei seq=1
und endend bei seq=100
. Sollte in ähnlichen Fällen mit anderen URLs problemlos funktionieren, ersetzen Sie einfach die URL in der while
-Schleife und ändern Sie das $seq
und $maxseq
in das gewünschte Zeichen.
Haftungsausschluss:Ich habe es nicht getestet, da ich auf meinem aktuellen Rechner kein Perl habe. Falls es Probleme gibt, sollten diese leicht zu beheben sein.
Antwort3
Sie können den Batch-Downloader verwendenWFDownloader App. Öffnen Sie die App, gehen Sie zu Aufgaben -> Batch-Download mit Muster hinzufügen. Geben Sie als Nächstes den Bereich in Ihrem Link in eckigen Klammern an, etwa so: seq=[1-50].
Die URL sieht jetzt so aus ...example.com/cgi/imgsrv/download/pdf?id=mdp.39015015603924;orient=0;size=100;seq=[1-50];attachment=0.
Klicken Sie auf „Bestätigen“ und verwenden Sie dann die Schaltfläche „Start“, um die Downloads stapelweise zu starten. Screenshot: