![Linux でウェブサイトからファイルをダウンロードするためのツール](https://rvso.com/image/1303072/Linux%20%E3%81%A7%E3%82%A6%E3%82%A7%E3%83%96%E3%82%B5%E3%82%A4%E3%83%88%E3%81%8B%E3%82%89%E3%83%95%E3%82%A1%E3%82%A4%E3%83%AB%E3%82%92%E3%83%80%E3%82%A6%E3%83%B3%E3%83%AD%E3%83%BC%E3%83%89%E3%81%99%E3%82%8B%E3%81%9F%E3%82%81%E3%81%AE%E3%83%84%E3%83%BC%E3%83%AB.png)
Ubuntu などの Linux OS で Web サイトから mp3/pdf/doc などのファイルをダウンロードするにはどうすればよいですか?
wget は良いツールだと知っていますが、他に何かありますか?
追伸:
eMule などの多くのダウンロード ツールは、ダウンロード速度の点で wget よりも優れていますよね?
答え1
wget
ほぼあらゆる用途に十分対応できるほど強力です。使い方さえ知っていれば大丈夫です。
シェル環境で DAP のように動作する独自のスクリプトを作成できます。たとえば、wget
バックグラウンドで複数のインスタンスを実行すると、ダウンロード速度が向上します...
wget http://wxyz.abc/def.pdf &
(アンパサンドに注意してください) など。
テキスト モードに制限されていない場合は、FlashGet やその他の多くの機能を使用できます。
答え2
axel
(このサイトはこの記事の投稿時点ではダウンしていますが、後で復活する可能性があります) は、複数の接続を介してファイルをダウンロードするための便利な小さなツールです。配布 ISO のような大きなファイルはすべて、 を使用してダウンロードするようにしていますaxel
。
ただし、使用方法によっては、wget
より優れている可能性があります。コマンドライン スイッチや、ダウンローダーを好まないサイトへの対策など、他の多くの機能も多数あります (man wget | nl
レポートは 1288 行ですが、axel's
マニュアル ページは 97 行のみです)。