wget を使って HTTP ディレクトリをローカル フォルダにミラーリングしたいのですが、オンラインでいくつかの方法を試しましたが、どれもうまくいかないようです。私のテスト サイトは Ubuntu リポジトリです (http://archive.ubuntu.com/ubuntu/project/) フォルダーをダウンロードしようとしました。5 回試してみましたが、プロジェクト フォルダーではなくドメイン全体をダウンロードしようとしたため、wget をキャンセルする必要がありました。最終的に実際のフォルダーをミラーリングしたところ、サイトの親フォルダーにローカルにネストされましたが、親フォルダー自体の内容はダウンロードされませんでした。
cp を使って欲しいもの(不可能): cphttp://archive.ubuntu.com/ubuntu/project/~/プロジェクト/
答え1
wget
あなたが望むように、再帰的にダウンロードする方法があります:
wget -r --no-parent -nH --cut-dirs=1 --reject "index.html*" http://archive.ubuntu.com/ubuntu/project/
この-nH --cut-dirs=1
フラグはディレクトリ構造を削除します。
cp -r
これにより、基本的にWeb サイトからプロジェクト フォルダーが という新しいディレクトリに再帰的にダウンロードされます~/project
。
合計 2 つのディレクトリと 11 個のファイルがダウンロードされました。