
Mantengo mi PC funcionando en casa. A veces, cuando estoy en el trabajo, mi PC no puede cargar las páginas que quiero cargar. Tengo que acceder a él mediante ssh y reiniciar/reiniciar el navegador. Es realmente molesto y estoy tratando de encontrar una manera más fácil de hacerlo. Pensé en hacer una captura de pantalla y de alguna manera intentar comprobar si se parece a una página 404 que tomé antes. Pero eso puede consumir demasiado los recursos de mi sistema.
Intenté captar el título de la página con xdotool
, pero falla.
¿Existe alguna forma de detectar páginas 404? Estoy usando el navegador Chrome con Ubuntu. No se puede acceder a esas páginas web desde mi computadora debido a mi conexión a Internet/computadora. La página web siempre está activa, pero a veces, debido a problemas de conexión, el navegador muestra 404 con ese pequeño dinosaurio. Este es mi código xdotool:
#!/usr/local/bin/xdotool
a=`xdotool search "http://a.com is not available - Chromium" | head -1`
if [[ $a ]]; then
echo "yes"
else
echo "nope"
fi
Respuesta1
Qué tal si wget
?
Tres ejemplos: uno para una página que no existe, otro para una página existente que no puedes descargar y uno que funciona.
obtenerhttps://askubuntu.com/testfor404
--2014-05-09 22:06:20-- https://askubuntu.com/testfor404
Resolving askubuntu.com (askubuntu.com)... 198.252.206.24
Connecting to askubuntu.com (askubuntu.com)|198.252.206.24|:80... connected.
HTTP request sent, awaiting response... 404 Not Found
2014-05-09 22:06:21 ERROR 404: Not Found.
obtenerhttps://askubuntu.com/reputation
--2014-05-09 22:07:11-- https://askubuntu.com/reputation
Resolving askubuntu.com (askubuntu.com)... 198.252.206.24
Connecting to askubuntu.com (askubuntu.com)|198.252.206.24|:80... connected.
HTTP request sent, awaiting response... 403 Forbidden
2014-05-09 22:07:11 ERROR 403: Forbidden.
obtenerhttp://askubuntu.com
--2014-05-09 22:07:36-- https://askubuntu.com/
Resolving askubuntu.com (askubuntu.com)... 198.252.206.24
Connecting to askubuntu.com (askubuntu.com)|198.252.206.24|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 69629 (68K) [text/html]
Saving to: ‘index.html’
100%[======================================>] 69.629 257KB/s in 0,3s
2014-05-09 22:07:36 (257 KB/s) - ‘index.html’ saved [69629/69629]
Ese comando podría ampliarse para mostrar "verdadero" o "falso" en caso de que el resultado muestre "ERROR 404: No encontrado".
La opción --delete-after
eliminará el index.html después de descargarlo. --spider
flag comprobará el encabezado/estado de la página sin descargarla.