Salga del sistema de archivos de solo lectura después de una falla del sistema y un restablecimiento completo (20.04.2 Servidor, VM)

Salga del sistema de archivos de solo lectura después de una falla del sistema y un restablecimiento completo (20.04.2 Servidor, VM)

Ayer mi sistema falló y me obligó a realizar un reinicio completo en mi máquina host mientras ejecutaba 2 máquinas virtuales. La primera máquina sobrevivió y la segunda se puso en modo de solo lectura. Después de iniciar sesión en la máquina virtual, aparecen los siguientes mensajes.

Unable to setup logging. [Errno 30] Read-only file system: '/var/log/landscape/sysinfo.log' run-parts: /etc/update-mot.d/50-landscape-sysinfo exited with return code 1 /usr/lib/ubuntu-release-upgrader/release-upgrade-motd: 31: cannot create /var/lib/ubuntu-release-upgrader/release-upgrade-available: Read-only file system mktemp: failedd to create file via template '/var/lib/update-notifier/tmp.XXXXXXXXXX': Read-only file system run-parts: /etc/update-motd.d/95-hwe-eol exited with return code 1 /usr/lib/update-notifier/update-motd-fsck-at-reboot: 38: cannot create /var/lib/update-notifier/fsck-at-reboot: Read-only file system

Revisé el archivo de imagen de disco del host, que en este caso es un archivo qcow2 que uso junto con KVM.

sudo qemu-img check ubuntu204.qcow2

Resultado del cual es:

No errors were found on the image. 245760/245760 = 100.00% allocated, 0.00% fragmented, 0.00% compressed clusters Image end offset: 16108814336

He leído que este es un estado forzado para proteger el sistema de archivos y que si escaneo el disco y todo está bien puedo salir del modo de solo lectura. ¿Cómo haría eso con la siguiente tabla de particiones en tty en modo de solo lectura? ?

loop0                         0
loop1                         0
loop2                         0
loop3                         0
loop4                         0
loop5                         0
|-sda                         0   15G    0 disk
  |-sda1                      0   1M     0 part
  |-sda2                      0   1G     0 part /boot
  |-sda3                      0   14G    0 part
    |-ubuntu--vg-ubuntu--lv   0   14G    0 lvm /
|-sr0                         1   1024M  0 rom

A partir de las advertencias con las que sospecho que puede haber un problema, unattended-upgradestambién me interesaría recibir más información sobre las comprobaciones adicionales que recomendaría para garantizar la integridad de ambas máquinas.

Respuesta1

Cómo recuperar un archivo de imagen de disco qcow2 usando fsck desde el host

Cargar módulo de dispositivo de bloque de red:

sudo modprobe nbd max_part=8

Máquina apagada:

sudo virsh destroy virtual-machine

Conectar imagen de disco:

sudo qemu-nbd --connect=/dev/nbd0 /var/lib/libvirt/images/virtual-machine.qcow2

Verifique el disco: (el disco ahora está montado en el host; puede verlo en nautilus/explorer)

sudo fsck /dev/nbd0p2

Para mí, tenía montadas dos unidades adicionales que acabo de escanear tanto nbd-dm3 como nbd0p2, aquí hay un ejemplo del resultado esperado al que respondí sí a todos.

fsck from util-linux 2.25.2
e2fsck 1.42.12 (29-Aug-2014)
/dev/nbd0p1: recovering journal
/dev/nbd0p1 contains a file system with errors, check forced.
Pass 1: Checking inodes, blocks, and sizes
Inodes that were part of a corrupted orphan linked list found.  Fix<y>? yes
Inode 274 was part of the orphaned inode list.  FIXED.
Inode 132276 was part of the orphaned inode list.  FIXED.
Deleted inode 142248 has zero dtime.  Fix<y>? yes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
Block bitmap differences:  -603674 -623174 +(689342--689343)
Fix<y>? yes
Free blocks count wrong for group #18 (15076, counted=15077).
Fix<y>? yes
Free blocks count wrong for group #19 (11674, counted=11675).
Fix<y>? yes
Free blocks count wrong (632938, counted=670871).
Fix<y>? yes
Inode bitmap differences:  -274 -132276 -142248
Fix<y>? yes
Free inodes count wrong for group #0 (52, counted=53).
Fix<y>? yes
Free inodes count wrong for group #16 (99, counted=100).
Fix<y>? yes
Free inodes count wrong for group #17 (519, counted=520).
Fix<y>? yes
Free inodes count wrong (204392, counted=204599).
Fix<y>? yes

/dev/nbd0p1: ***** FILE SYSTEM WAS MODIFIED *****
/dev/nbd0p1: 101833/306432 files (0.2% non-contiguous), 553321/1224192 blocks

Desconectar dispositivo:

sudo qemu-nbd --disconnect /dev/nbd0

/dev/nbd0 desconectado

Inicie su máquina y verifique si funcionó:

virsh start virtual-machine

Fuente:https://gist.github.com/islander/8517685e3a9f7e0e1d458033710f0893

información relacionada