HTTP フォルダの場所からローカル フォルダにすべてのファイルをコピーします。

HTTP フォルダの場所からローカル フォルダにすべてのファイルをコピーします。

私は学生で、教授の Web サイトから多くの情報を取得する必要があります。できればフォルダー構造の一部を保持しておきたいです。

私は Windows ボックスで作業しており、Windows XP、Windows 7、および Windows Server 2008 R2 にアクセスできます。昔 (2 ~ 3 年前)、Web ページをミラーリングするユーティリティなどを試しましたが、さまざまな理由で正常に動作しなかったり、必要な結果が得られなかったりしました。

たとえば、次のフォルダー:

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolderABCXYZ

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder123456

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder4321

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder2345

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolderABCXYZ2

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder1234563

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder43214

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder23455

本質的に、後で使用するために手動でダウンロードしようとするのは本当に面倒です。

私はもう試したこのユーティリティそして、それはやり過ぎか、あるいは十分に単純ではないため、ファイルをハードドライブにダウンロードするだけでは不十分です。

理想的には、フォルダーを再帰的にスキャンし、指定されたフォルダーにフォルダー構造を再作成し、リモート サーバーからローカル マシン上の対応するフォルダーにファイルをコピーしたいと思います。

答え1

ウェブサイトからファイルを再帰的にダウンロードする最も簡単なユーティリティは WGET です。

http://gnuwin32.sourceforge.net/packages/wget.htm

答え2

Firefox アドオン:ダウンゼムオール!

Chrome拡張機能:すべて入手

答え3

使用方法を見るHTトラック:

HTTrack を使用すると、インターネットからローカル ディレクトリに World Wide Web サイトをダウンロードし、すべてのディレクトリを再帰的に構築して、サーバーからコンピュータに HTML、画像、およびその他のファイルを取得できます。HTTrack は、元のサイトの相対リンク構造を整理します。ブラウザで「ミラーリングされた」Web サイトのページを開くだけで、まるでオンラインで閲覧しているかのように、リンクからリンクへとサイトを参照できます。HTTrack は、既存のミラーリングされたサイトを更新し、中断されたダウンロードを再開することもできます。HTTrack は完全に構成可能で、統合されたヘルプ システムを備えています。

関連情報