![инструменты для загрузки файлов с веб-сайтов в Linux](https://rvso.com/image/1303072/%D0%B8%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D1%8B%20%D0%B4%D0%BB%D1%8F%20%D0%B7%D0%B0%D0%B3%D1%80%D1%83%D0%B7%D0%BA%D0%B8%20%D1%84%D0%B0%D0%B9%D0%BB%D0%BE%D0%B2%20%D1%81%20%D0%B2%D0%B5%D0%B1-%D1%81%D0%B0%D0%B9%D1%82%D0%BE%D0%B2%20%D0%B2%20Linux.png)
Как загружать файлы, такие как mp3/pdf/doc, с веб-сайтов в ОС Linux, например Ubuntu?
Я знаю, что wget — хороший инструмент, что-нибудь ещё?
P.S.:
Многие инструменты загрузки, такие как eMule, превосходят wget по скорости загрузки, не так ли?
решение1
wget
достаточно прочный для почти любого использования. Вам просто нужно знать, как им пользоваться.
Вы можете написать свой собственный скрипт, который будет работать как DAP в среде оболочки. Например, запуск нескольких экземпляров в wget
фоновом режиме увеличит скорость загрузки и скорость...
wget http://wxyz.abc/def.pdf &
(обратите внимание на амперсанд) и так далее.
Если вы не ограничены текстовым режимом, вы можете использовать FlashGet и множество других программ.
решение2
axel
(сайт не работает на момент публикации - возможно, он снова заработает позже) - это небольшой инструмент для загрузки файлов, который загружается через несколько соединений. Все большие файлы, такие как дистрибутивные ISO, я стараюсь загружать с помощью axel
.
Однако, в зависимости от использования, wget
может быть лучше — в нем гораздо больше ключей командной строки и мер противодействия сайтам, которым не нравятся загрузчики, а также много других вещей ( man wget | nl
отчеты содержат 1288 строк — axel's
страница руководства содержит всего 97 строк).