ウェブページから画像をダウンロードする

ウェブページから画像をダウンロードする

この美しい少年は定期的に更新します彼のブログ写真付き。彼の写真を自分のコンピュータにダウンロードするプロセスを自動化したいです。

3つの画像をダウンロードしたいとしますこのエントリー彼のブログで。

各画像を右クリックする代わりに、より自動化されたプロセスを使用したいと思います。

httrack を使用するのがよさそうです。(他に何かあれば教えてください。)

ちょっと難しいですね。私が取得しようとしている写真のアドレスが全く違うからです。例えば、3枚の写真のうち最初のものはhttp://stat.ameba.jp/user_images/20120120/20/maofish/3c/99/j/o0480063311745603530.jpg

次のコマンドを試しました:

httrack http://ameblo.jp/maofish/entry-11141191034.html -* +stat.ameba.jp/* -*.html -*.txt +*.jpg

探しているファイルは取得されますが、探していないファイルも取得されます。ダウンロードすると、画像が複数のディレクトリにネストされるため、見つけるのが困難です。

興味のある画像だけを取得して現在のディレクトリに保存し、検索に苦労しなくて済むようにするには、httrack にどのようなパラメータを指定すればよいでしょうか。もっと良いツールがあるとすれば、それは何でしょうか。

関連情報