GNU Wget 1.16 built on linux-gnueabihf
sobreRaspberry Pi 3
Como faço para forçar o wget a obter o site inteiro (seguir os links, agir como um robô), não apenas o primeiro índice?
Tentei:
wget -r http://aol.com
wget -r -l0 http://aol.com
wget -r -m -l0 http://aol.com
Cada comando terminou com o mesmo:
--2017-11-29 08:05:42-- http://aol.com/
Resolving aol.com (aol.com)... 149.174.149.73, 64.12.249.135, 149.174.110.105, ...
Connecting to aol.com (aol.com)|149.174.149.73|:80... connected.
HTTP request sent, awaiting response... 301 Moved Permanently
Location: https://www.aol.com/ [following]
--2017-11-29 08:05:42-- https://www.aol.com/
Resolving www.aol.com (www.aol.com)... 34.233.220.13, 34.235.7.32, 52.6.64.98, ...
Connecting to www.aol.com (www.aol.com)|34.233.220.13|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Last-modified header missing -- time-stamps turned off.
--2017-11-29 08:05:44-- https://www.aol.com/
Reusing existing connection to www.aol.com:443.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Saving to: ‘aol.com/index.html’
aol.com/index.html [ <=> ] 359.95K 751KB/s in 0.5s
2017-11-29 08:05:45 (751 KB/s) - ‘aol.com/index.html’ saved [368585]
FINISHED --2017-11-29 08:05:45--
Total wall clock time: 2.8s
Downloaded: 1 files, 360K in 0.5s (751 KB/s)
O que estou fazendo de errado?
Responder1
Seu problema surge porque todos os links aol.com/index.html
apontam para hosts diferentes. Para fazer download recursivamente de todos os hosts, você pode adicionar a opção --span-hosts
. Para permitir todos os hosts aol, pareceu funcionar para mim adicionar a --span-hosts '*.aol.com'
opção.
wget --span-hosts '*.aol.com' -r http://www.aol.com
Você pode listar os links com
grep -Po '(?<=href=")[^"]*' aol.com/index.html
Você verá que a maioria deles aponta para www.aol.com, então você também pode ligar
wget -r http://www.aol.com
Responder2
Usar o seguinte permitirá wget
baixar todas as páginas vinculadas a um site recursivamente.
wget -r $(curl http://aol.com | grep -Po '(?<=href=")[^"]*')
Substitua o site de exemplo pelo que você deseja. Isso vai buscar comoDeapth for search in a graph
Método de Trabalho curl
vai buscar index.html
. Ele será direcionado grep
para encontrar todos os links correspondendo a href
. O resultado da entrada será fornecido wget
como uma variável. wget
busque os links um por um da variável.