El montaje NFS falla al iniciar

El montaje NFS falla al iniciar

Tengo varios servidores Ubuntu, recientemente instalé algunos servidores 11.04 (y 1 escritorio) y descubrí que al reiniciar, los soportes nfs no se montan.

Intenté actualizar nfs-common a la última versión (solo estoy una pequeña revisión por detrás), pero eso cambia ligeramente mis errores. Todos estos servidores que tienen problemas son clones (vmWare) de una plantilla de servidor que hice hace un tiempo, así que pensé que tal vez era un problema con la plantilla y, por lo tanto, con todos sus clones. Luego probé el mismo montaje en Desktop 11.04 pero tuve los mismos problemas. Aproximadamente la mitad de las veces podré presionar "S" para omitir, pero la otra mitad del tiempo el servidor se congela (y lo restauro desde una instantánea reciente). Además, lo extraño es que si yosoySi puedo ingresar al sistema, puedo hacer un "montaje -a" sin problemas y montará todo. Esto me hace pensar que el problema es que nfs no está esperando a que haya una red presente para intentar montar. Otra cosa que me hace pensar esto es que aparece el error "no se puede resolver el host" (a un punto NFS), a pesar de que ese host está en /etc/hosts.

Aquí está mi /var/log/boot.log

fsck from util-linux-ng 2.17.2
fsck from util-linux-ng 2.17.2
/dev/sda1 was not cleanly unmounted, check forced.
/dev/mapper/php53x-root: clean, 75641/1032192 files, 492673/4126720 blocks (check in 5 mounts)
init: portmap-wait (statd) main process (373) killed by TERM signal
init: statd main process (402) terminated with status 1
init: statd main process ended, respawning
init: statd-mounting main process (355) killed by TERM signal
mount.nfs: Failed to resolve server NFSSERVER-priv: Name or service not known
init: statd-mounting main process (416) killed by TERM signal
mount.nfs: Failed to resolve server NFSSERVER-priv: Name or service not known
init: statd main process (435) terminated with status 1
init: statd main process ended, respawning
init: statd main process (459) terminated with status 1
init: statd main process ended, respawning
mountall: mount /var/www [410] terminated with status 32
mountall: mount /var/users [436] terminated with status 32
init: statd-mounting main process (448) killed by TERM signal
init: statd main process (468) terminated with status 1
init: statd main process ended, respawning
init: statd main process (498) terminated with status 1
init: statd main process ended, respawning
/dev/sda1: 226/124496 files (1.3% non-contiguous), 39133/248832 blocks
mountall: fsck /boot [268] terminated with status 1
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/users [583] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/www [575] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/www [638] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/users [645] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/www [724] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/users [729] terminated with status 32 Skipping /var/www at user request
 * Starting AppArmor profiles        [80G  [74G[ OK ]
 * Starting Name Service Cache Daemon nscd        [80G  [74G[ OK ]
FATAL: Module vmhgfs not found.
FATAL: Module vmsync not found.
FATAL: Module vmblock not found.
 * Loading open-vm-tools modules        [80G  [74G[ OK ]
 * Starting open-vm daemon vmtoolsd        [80G  [74G[ OK ]

Perdón por la extensión de la publicación, solo quería transmitir la mayor cantidad de información posible. ¿Alguien tiene alguna sugerencia sobre esto? He estado buscando en Google todo el día y probé cosas con _netdev y también cambié la configuración de statd, pero nada funcionó. Tengo 6 servidores, esto está afectando. :\

/etc/fstab: (solo líneas problemáticas; eliminarlas permitirá que el resto de nfs se monte)

NFSSERVER-priv:/vol/vol1_isp/eshowcase/sites      /var/www       nfs     ro,defaults        0       0
NFSSERVER-priv:/vol/vol1_isp/vusers      /var/users       nfs     defaults        0       0

/etc/hosts (entrada relevante):

10.1.1.43 NFSSERVER-priv

Respuesta1

Esto es lo que hice como solución alternativa en caso de que alguien más se encuentre con este problema y busque la solución aquí:

Creó un script (mountall.sh) en /etc/init.d/:

#!/bin/bash

mount -r NFSSERVER-priv:/vol/vol1_isp/eshowcase/sites /var/www
mount    NFSSERVER-priv:/vol/vol1_isp/vusers          /var/users

Informe al sistema del nuevo script:

update-rc.d mountall.sh defaults

La opción "valores predeterminados" coloca un enlace para iniciar mountall.sh en los niveles de ejecución 2, 3, 4 y 5 (y coloca un enlace para detener mountall.sh en 0, 1 y 6).

Modifique el archivo para que sea ejecutable

chmod +x mountall.sh

Ahora, cuando inicies 6, deberías tener tus puntos de montaje. También es una buena idea hacer un "comentario" en su fstab para que la gente sepa desde dónde se está montando todo, ya que ese será el primer lugar donde buscarán.

Respuesta2

No estoy seguro si esto se aplica a usted, pero el problemaEstaba teniendofue que el directorio en el que intentaba montar no estaba disponible en el arranque. En lugar de eso, intenté montarlo /mnty funcionó.

Respuesta3

Tuve el mismo problema después de actualizar Ubuntu 14.04 a 14.10. Esto es lo que resolvió el problema para mí:

Edita /etc/default/nfs-commony asegúrate de que diga:

NEED_STATD=yes

Después de reiniciar, mis montajes NFS funcionaron.

Respuesta4

Si utiliza Windows 8, seguramente los discos formateados con nfs no se montarán y la respuesta a este problema es "simplemente vuelva a instalar Windows 8 y desactive la opción de hibernación en la configuración", entonces solo usted podrá montar los discos formateados con nfs.

información relacionada