손상된 lvm으로 인해 read_urandom 오류가 발생함

손상된 lvm으로 인해 read_urandom 오류가 발생함

chroot에서 뭔가를 하고 있었는데 불행하게도 호스트가 깨졌습니다. 이제 볼륨 그룹을 관리할 수 없습니다.

pvs
  read_urandom: /dev/urandom: open failed: No such file or directory

lvm에 대한 다른 명령에서 동일한 오류가 발생합니다. 재구성을 시도하는 중:

# dpkg-reconfigure linux-image-4.19.0-16-amd64

/etc/kernel/postinst.d/dkms:
dkms: running auto installation service for kernel 4.19.0-16-amd64:/usr/sbin/dkms: line 3345: /dev/fd/62: No such file or directory
.
/etc/kernel/postinst.d/initramfs-tools:
update-initramfs: Generating /boot/initrd.img-4.19.0-16-amd64
cryptsetup: ERROR: Couldn't resolve device 
    /dev/mapper/rootvg-root--server--alpha--host
cryptsetup: WARNING: Couldn't determine root device
cryptsetup: ERROR: Couldn't resolve device /dev/dm-1 (deleted)
cryptsetup: ERROR: Couldn't resolve device 
    UUID=e9ef352b-a648-4499-ade2-54235f40a3df
W: Couldn't identify type of root file system for fsck hook
I: The initramfs will attempt to resume from /dev/dm-1 (deleted)
I: Set the RESUME variable to override this.
/etc/kernel/postinst.d/zz-update-grub:
/usr/sbin/grub-probe: error: failed to get canonical path of `/dev/mapper/rootvg-root--server--alpha--host'.
run-parts: /etc/kernel/postinst.d/zz-update-grub exited with return code 1

initramfs 업데이트를 시도 중입니다:

# update-initramfs -u
update-initramfs: Generating /boot/initrd.img-4.19.0-16-amd64
cryptsetup: ERROR: Couldn't resolve device 
    /dev/mapper/rootvg-root--server--alpha--host
cryptsetup: WARNING: Couldn't determine root device
cryptsetup: ERROR: Couldn't resolve device /dev/dm-1 (deleted)
cryptsetup: ERROR: Couldn't resolve device 
    UUID=e9ef352b-a648-4499-ade2-54235f40a3df
W: Couldn't identify type of root file system for fsck hook
I: The initramfs will attempt to resume from /dev/dm-1 (deleted)
I: Set the RESUME variable to override this.

파티션 아키텍처:

# lsblk
NAME                                       MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
nvme1n1                                    259:0    0  1.8T  0 disk  
├─nvme1n1p1                                259:2    0    2M  0 part  
│ └─md1                                      9:1    0    2M  0 raid1 
├─nvme1n1p2                                259:3    0  510M  0 part  
│ └─md2                                      9:2    0  509M  0 raid1 /boot
└─nvme1n1p3                                259:4    0  1.8T  0 part  
  └─md3                                      9:3    0  1.8T  0 raid1 
    └─croot                                253:0    0  1.8T  0 crypt 
      ├─rootvg-swap--server--alpha--host 253:1    0    8G  0 lvm   
      ├─rootvg-root--server--alpha--host 253:2    0  1.5T  0 lvm   /
      ├─rootvg-root--vm1                   253:3    0  100G  0 lvm   
      ├─rootvg-root--vm2                   253:4    0   20G  0 lvm   
      ├─rootvg-root--vm3                   253:5    0   40G  0 lvm   
      └─rootvg-root--vm4                   253:6    0  100G  0 lvm   
nvme0n1                                    259:1    0  1.8T  0 disk  
├─nvme0n1p1                                259:5    0    2M  0 part  
│ └─md1                                      9:1    0    2M  0 raid1 
├─nvme0n1p2                                259:6    0  510M  0 part  
│ └─md2                                      9:2    0  509M  0 raid1 /boot
└─nvme0n1p3                                259:7    0  1.8T  0 part  
  └─md3                                      9:3    0  1.8T  0 raid1 
    └─croot                                253:0    0  1.8T  0 crypt 
      ├─rootvg-swap--server--alpha--host 253:1    0    8G  0 lvm   
      ├─rootvg-root--server--alpha--host 253:2    0  1.5T  0 lvm   /
      ├─rootvg-root--vm1                   253:3    0  100G  0 lvm   
      ├─rootvg-root--vm2                   253:4    0   20G  0 lvm   
      ├─rootvg-root--vm3                   253:5    0   40G  0 lvm   
      └─rootvg-root--vm4                   253:6    0  100G  0 lvm  

문제는 rootvg-root--vm4에서 chroot를 수행하는 데 있었습니다. 아마도 update-initramfs 또는 호스트에서 실행 중인 프로세스에 영향을 미치는 /mnt의 파일 제거 때문일 수 있습니다. 이제는 해당 볼륨을 삭제할 수도 없고 서버를 재부팅하면 서버를 잃을까 두렵습니다...

귀하의 지원을 기다리고 있습니다. 미리 감사드립니다.

편집됨:

추가 작업: VM 다시 시작 시도:

$ sudo virsh start vm2-bastion
sudo virsh start vm2

error: Failed to start domain vm2
error: internal error: Failed to probe QEMU binary with QMP: Could not access KVM kernel module: No such file or directory
qemu-system-x86_64: failed to initialize KVM: No such file or directory
qemu-system-x86_64: Back to tcg accelerator

SSH를 통한 기존 액세스가 손실되었습니다.

$ ssh user@ip
PTY allocation request failed on channel 0

...하지만 다음을 사용하여 로그인했습니다.

$ ssh user@ip "/bin/bash -i" 

bash: cannot set terminal process group (-1): Inappropriate ioctl for device
bash: no job control in this shell
user@server-alpha-host:~$

답변1

이제는 해당 볼륨을 삭제할 수도 없고 서버를 재부팅하면 서버를 잃을까 두렵습니다...

중요한 데이터를 백업하세요. 이 호스트가 중요한 경우 재구축 및 복구가 가능해야 합니다.

삭제가 발생한 위치와 시간에 블록 장치가 마운트되었는지 확인하고 해당 장치의 데이터에 관심이 있는지 확인하십시오. 그렇지 않을 수도 있지만 SIGINT를 전송했다고 해서 장치 노드에서 삭제가 중지되었다는 의미는 아닙니다.

/dev/urandom, /dev/kvm, 블록 장치, /proc 및 기타 장치가 없으면 많은 문제가 발생합니다. 다시 가져오려면 재부팅하세요. devtmpfs 및 udev는 부팅할 때마다 정상적으로 장치 노드를 다시 생성합니다. 이 재부팅은 오작동하는 모든 프로그램이 다시 시작되도록 하기 위한 것이며 결국에는 발생해야 합니다.

관련 정보