私は学生で、教授の Web サイトから多くの情報を取得する必要があります。できればフォルダー構造の一部を保持しておきたいです。
私は Windows ボックスで作業しており、Windows XP、Windows 7、および Windows Server 2008 R2 にアクセスできます。昔 (2 ~ 3 年前)、Web ページをミラーリングするユーティリティなどを試しましたが、さまざまな理由で正常に動作しなかったり、必要な結果が得られなかったりしました。
たとえば、次のフォルダー:
http://myUniversity.edu/professor/classLectures/folder1/programmaticFolderABCXYZ
http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder123456
http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder4321
http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder2345
http://myUniversity.edu/professor/classLectures/folder2/programmaticFolderABCXYZ2
http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder1234563
http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder43214
http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder23455
本質的に、後で使用するために手動でダウンロードしようとするのは本当に面倒です。
私はもう試したこのユーティリティそして、それはやり過ぎか、あるいは十分に単純ではないため、ファイルをハードドライブにダウンロードするだけでは不十分です。
理想的には、フォルダーを再帰的にスキャンし、指定されたフォルダーにフォルダー構造を再作成し、リモート サーバーからローカル マシン上の対応するフォルダーにファイルをコピーしたいと思います。
答え1
ウェブサイトからファイルを再帰的にダウンロードする最も簡単なユーティリティは WGET です。
答え2
答え3
使用方法を見るHTトラック:
HTTrack を使用すると、インターネットからローカル ディレクトリに World Wide Web サイトをダウンロードし、すべてのディレクトリを再帰的に構築して、サーバーからコンピュータに HTML、画像、およびその他のファイルを取得できます。HTTrack は、元のサイトの相対リンク構造を整理します。ブラウザで「ミラーリングされた」Web サイトのページを開くだけで、まるでオンラインで閲覧しているかのように、リンクからリンクへとサイトを参照できます。HTTrack は、既存のミラーリングされたサイトを更新し、中断されたダウンロードを再開することもできます。HTTrack は完全に構成可能で、統合されたヘルプ システムを備えています。