
Existe uma maneira fácil de manter uma pasta sincronizada com uma listagem de diretórios via HTTP?
Editar:
Obrigado pela dica com o wget! Criei um script de shell e o adicionei como um cron job:
remote_dirs=( "http://example.com/" "…") # Add your remote HTTP directories here
local_dirs=( "~/examplecom" "…")
for (( i = 0 ; i < ${#local_dirs[@]} ; i++ )) do
cd "${local_dirs[$i]}"
wget -r -l1 --no-parent -A "*.pdf" -nd -nc ${remote_dirs[$i]}
done
# Explanation:
# -r to download recursively
# -l1 to include only one directory depth
# --no-parent to exclude parent directories
# -A "*.pdf" to accept only .pdf files
# -nd to prevent wget to create directories for everything
# -N to make wget to download only new files
Editar 2:
Conforme mencionado abaixo, também se pode usar --mirror
( -m
), que é a abreviação de -r -N
.
Responder1
wget
é uma ótima ferramenta.
Usarwget -m http://somesite.com/directory
-m
--mirror
Turn on options suitable for mirroring. This option turns on
recursion and time-stamping, sets infinite recursion depth and
keeps FTP directory listings. It is currently equivalent to
-r -N -l inf --no-remove-listing.
Responder2
Como rsync, mas usezsyncpara obter de um servidor httpd.