
Ich habe versucht, bestimmte Seiten herunterzuladen, die mit einer bestimmten Phrase enden. Ich habe die Dokumentation durchgesehen und konnte nicht herausfinden, wie das geht. Wenn es eine Möglichkeit gibt oder nicht, sagen Sie es mir bitte und wenn ja, wie.
EDIT: Nehmen wir zum Beispiel an, ich versuche, auf diese Websites zuzugreifen:
example.com/sdfsdfs/awrf235/sdgsdg/important_page.html example.com/sdfsasdasddfs/awrfg235/sdgsdg/important_page.html example.com/sdfsdfsdfs/awrf235g/sdsagsdg/important_page.html
Und es gibt noch 100 weitere, die mit /important_page.html enden, und 1000 weitere mit anderem nutzlosen Zeug. Wie kann ich die herunterladen, die nur mit /important_page.html enden?
Antwort1
Gehen Sie zu Options / Scan Rules
, klicken Sie aufLink(s) einschließenund fügen Sie dann eine Scanregel für den Dateinamen hinzu, der abgeglichen werden soll:
(Das Bild oben zeigt das Hinzufügen einer Ausschlussregel, die Benutzeroberfläche ist aber auch für Einschlussregeln dieselbe.)
Dokumentation fürFilter/Scan-RegelnUndErweiterte Filter.