Boot.mount falha após atualizar para 18.04

Boot.mount falha após atualizar para 18.04

Esse problema aconteceu em muitos de nossos servidores que foram atualizados para 18.04 a partir de 16.04. A configuração comum é que root é um LVM e existe uma partição /boot ou uma partição /boot e /boot/efi. Por exemplo:

$ lsblk -f
NAME                         FSTYPE      LABEL UUID                                   MOUNTPOINT
sda                                                                                   
├─sda1                       vfat              C45F-2000                         /boot/efi     
├─sda2                       ext2              a906fd59-cb58-4c94-8560-5d426e4   /boot
└─sda3                       LVM2_member       1P3Rxv-VZMx-gcs9-PlxM-DCI8-kIqr
  ├─node--007--vg-root       ext4              316678d5-aaaf-43bd-bac6-cc3aeb1   /
  ├─node--007--vg-swap_1     swap              0724b0b0-9f2d-42aa-bbe2-7b8aa31   [SWAP]
  ├─node--007--vg--na      ext4              7d42481b-f7fb-4ac6-9cf5-5df3ca17   /cache/na
  ├─node--007--vg-c        ext4              e38d96f8-6afb-4d2c-94cc-28a02e90   /cache/c
  └─node--007--vg-t        ext4              44559b67-869e-4454-b792-792c1a16   /cache/d

Com o registro de depuração do kernel, sempre vejo esse tipo de registro sobre o tempo limite de espera pelo dispositivo

Mar 30 16:14:22 ns1 systemd-udevd[539]: seq 3206 '/devices/pci0000:00/0000:00:1f.2/ata2/host1/target1:0:0/1:0:0:0/block/sda' is taking a long time
Mar 30 16:14:22 ns1 systemd[1]: systemd-udevd.service: Got notification message from PID 539 (WATCHDOG=1)
Mar 30 16:14:50 ns1 systemd[1]: dev-disk-by\x2duuid-a906fd59\x2dcb58\x2d4c94\x2d8560\x2d5d426e4.device: Job dev-disk-by\x2duuid-a906fd59\x2dcb58\x2d4
Mar 30 16:14:50 ns1 systemd-journald[501]: Forwarding to syslog missed 70 messages.
Mar 30 16:14:50 ns1 systemd[1]: dev-disk-by\x2duuid-a906fd59\x2dcb58\x2d4c94\x2d8560\x2d5d426e4.device: Job dev-disk-by\x2duuid-a906fd59\x2dcb58\x2d4
Mar 30 16:14:50 ns1 systemd[1]: Timed out waiting for device dev-disk-by\x2duuid-a906fd59\x2dcb58\x2d4c94\x2d8560\x2d5d426e4.device.
Mar 30 16:14:50 ns1 systemd[1]: boot.mount: Job boot.mount/start finished, result=dependency
Mar 30 16:14:50 ns1 systemd[1]: Dependency failed for /boot.

O swap e os LVMs são montados neste ponto. O modo de emergência é inserido e pressionar control-D continua a inicialização e então tudo está bem.

Se eu tar todos os arquivos em /boot, umount /boot e /boot/efi e depois descompactá-los, altere o fstab, atualize o initramfs e reinicialize sem essas partições, o nó será inicializado.

Percebi que o log informando que /dev/sda está conectado não acontece antes de entrar no modo de emergência, mesmo que os lvms tenham sido montados com sucesso. Depois de pressionar control-D para continuar a inicialização, o log acontece e tudo, incluindo o sda2, é montado perfeitamente.

Mar 30 16:15:33 ns1 systemd[1]: dev-sda.device: Changed dead -> plugged

Qualquer ajuda muito apreciada.

Responder1

Depois de muita pesquisa, ativei o registro de depuração muito útil em /etc/udev/udev.conf e atualizei meu initramfs.

$ cat /etc/udev/udev.conf 
# see udev.conf(5) for details
#
# udevd is started in the initramfs, so when this file is modified the
# initramfs should be rebuilt.

#udev_log="info"
#event_timeout=300
udev_log="debug"

Isso me ajudou a identificar o problema. Havia milhares de 'curls' acontecendo no início da inicialização, e esses eram de uma regra do udev que agia na adição e remoção de dispositivos 'sd*'. Comentei essas ações de regra e agora o sistema inicializa! Os logs podem ser visualizados com journalctl -b.

informação relacionada