Si tengo una lista de URL separadas por \n
, ¿hay alguna opción a la que pueda pasar para wget
descargar todas las URL y guardarlas en el directorio actual, pero solo si los archivos aún no existen?
Respuesta1
Hay una opción -nc
( --no-clobber
) para wget
.
Respuesta2
De wget --help
:
....
-i, --input-file=FILE download URLs found in local or external FILE.
....
-nc, --no-clobber skip downloads that would download to
existing files.
-c, --continue resume getting a partially-downloaded file.
....
Lo incluí --continue
porque parecía que podría ser útil si estás intentando recuperarte de una descarga interrumpida, pero no lo necesitas para responder tu pregunta original.