![Boot.mount falha após atualizar para 18.04](https://rvso.com/image/1070316/Boot.mount%20falha%20ap%C3%B3s%20atualizar%20para%2018.04.png)
Esse problema aconteceu em muitos de nossos servidores que foram atualizados para 18.04 a partir de 16.04. A configuração comum é que root é um LVM e existe uma partição /boot ou uma partição /boot e /boot/efi. Por exemplo:
$ lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT
sda
├─sda1 vfat C45F-2000 /boot/efi
├─sda2 ext2 a906fd59-cb58-4c94-8560-5d426e4 /boot
└─sda3 LVM2_member 1P3Rxv-VZMx-gcs9-PlxM-DCI8-kIqr
├─node--007--vg-root ext4 316678d5-aaaf-43bd-bac6-cc3aeb1 /
├─node--007--vg-swap_1 swap 0724b0b0-9f2d-42aa-bbe2-7b8aa31 [SWAP]
├─node--007--vg--na ext4 7d42481b-f7fb-4ac6-9cf5-5df3ca17 /cache/na
├─node--007--vg-c ext4 e38d96f8-6afb-4d2c-94cc-28a02e90 /cache/c
└─node--007--vg-t ext4 44559b67-869e-4454-b792-792c1a16 /cache/d
Com o registro de depuração do kernel, sempre vejo esse tipo de registro sobre o tempo limite de espera pelo dispositivo
Mar 30 16:14:22 ns1 systemd-udevd[539]: seq 3206 '/devices/pci0000:00/0000:00:1f.2/ata2/host1/target1:0:0/1:0:0:0/block/sda' is taking a long time
Mar 30 16:14:22 ns1 systemd[1]: systemd-udevd.service: Got notification message from PID 539 (WATCHDOG=1)
Mar 30 16:14:50 ns1 systemd[1]: dev-disk-by\x2duuid-a906fd59\x2dcb58\x2d4c94\x2d8560\x2d5d426e4.device: Job dev-disk-by\x2duuid-a906fd59\x2dcb58\x2d4
Mar 30 16:14:50 ns1 systemd-journald[501]: Forwarding to syslog missed 70 messages.
Mar 30 16:14:50 ns1 systemd[1]: dev-disk-by\x2duuid-a906fd59\x2dcb58\x2d4c94\x2d8560\x2d5d426e4.device: Job dev-disk-by\x2duuid-a906fd59\x2dcb58\x2d4
Mar 30 16:14:50 ns1 systemd[1]: Timed out waiting for device dev-disk-by\x2duuid-a906fd59\x2dcb58\x2d4c94\x2d8560\x2d5d426e4.device.
Mar 30 16:14:50 ns1 systemd[1]: boot.mount: Job boot.mount/start finished, result=dependency
Mar 30 16:14:50 ns1 systemd[1]: Dependency failed for /boot.
O swap e os LVMs são montados neste ponto. O modo de emergência é inserido e pressionar control-D continua a inicialização e então tudo está bem.
Se eu tar todos os arquivos em /boot, umount /boot e /boot/efi e depois descompactá-los, altere o fstab, atualize o initramfs e reinicialize sem essas partições, o nó será inicializado.
Percebi que o log informando que /dev/sda está conectado não acontece antes de entrar no modo de emergência, mesmo que os lvms tenham sido montados com sucesso. Depois de pressionar control-D para continuar a inicialização, o log acontece e tudo, incluindo o sda2, é montado perfeitamente.
Mar 30 16:15:33 ns1 systemd[1]: dev-sda.device: Changed dead -> plugged
Qualquer ajuda muito apreciada.
Responder1
Depois de muita pesquisa, ativei o registro de depuração muito útil em /etc/udev/udev.conf e atualizei meu initramfs.
$ cat /etc/udev/udev.conf
# see udev.conf(5) for details
#
# udevd is started in the initramfs, so when this file is modified the
# initramfs should be rebuilt.
#udev_log="info"
#event_timeout=300
udev_log="debug"
Isso me ajudou a identificar o problema. Havia milhares de 'curls' acontecendo no início da inicialização, e esses eram de uma regra do udev que agia na adição e remoção de dispositivos 'sd*'. Comentei essas ações de regra e agora o sistema inicializa! Os logs podem ser visualizados com journalctl -b.