HTTP 폴더 위치의 모든 파일을 로컬 폴더로 복사

HTTP 폴더 위치의 모든 파일을 로컬 폴더로 복사

저는 학생이고 교수님의 웹사이트에서 많은 자료를 가져와야 하며 폴더 구조 중 일부를 유지하는 것이 좋습니다.

저는 Windows 박스 작업을 하고 있으며 Windows XP, Windows 7 및 Windows Server 2008 R2에 액세스할 수 있습니다. 아주 예전(2~3년 전)에 웹 페이지 등을 미러링하는 유틸리티를 사용해 보았지만 여러 가지 이유로 제대로 작동하지 않거나 원하는 것을 얻을 수 없었습니다.

예를 들어 다음 폴더는 다음과 같습니다.

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolderABCXYZ

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder123456

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder4321

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder2345

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolderABCXYZ2

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder1234563

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder43214

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder23455

본질적으로 나중에 사용하기 위해 수동으로 다운로드하는 것은 정말 힘든 일입니다.

난 노력 했어이 유틸리티그리고 그것은 너무 과하거나 충분히 간단하지 않습니다. 하드 드라이브에 파일을 다운로드하는 것만으로는 충분하지 않기 때문입니다.

이상적으로는 폴더를 재귀적으로 검색하고 지정된 폴더에 폴더 구조를 다시 만든 다음 원격 서버의 파일을 로컬 컴퓨터의 해당 폴더에 복사하고 싶습니다.

답변1

웹 사이트에서 파일을 재귀적으로 다운로드하는 가장 간단한 유틸리티는 WGET입니다.

http://gnuwin32.sourceforge.net/packages/wget.htm

답변2

파이어폭스 애드온:DownThemAll!

크롬 확장 프로그램:GetThemAll

답변3

사용하는 모습을 보세요HT트랙:

이를 통해 World Wide Web 사이트를 인터넷에서 로컬 디렉토리로 다운로드하고 모든 디렉토리를 재귀적으로 구축하고 HTML, 이미지 및 기타 파일을 서버에서 컴퓨터로 가져올 수 있습니다. HTTrack은 원본 사이트의 상대 링크 구조를 정렬합니다. 브라우저에서 "미러링된" 웹사이트의 페이지를 열면 마치 온라인에서 보는 것처럼 링크에서 링크로 사이트를 탐색할 수 있습니다. HTTrack은 기존 미러 사이트를 업데이트하고 중단된 다운로드를 재개할 수도 있습니다. HTTrack은 완전히 구성 가능하며 통합 도움말 시스템이 있습니다.

관련 정보