
Auf meinem Ubuntu Trusty AMD64, KDE-Desktop-Build habe ich 2 LVM2 PVs, jedes mit einer einzelnen VG. Jede VG enthält 2 oder mehr LVs. Beim Booten (a) ist keines der LVs „verfügbar“, kann also nicht von fstab gemountet werden, sie erzeugen beim Booten Fehlermeldungen (b) sobald KDE gestartet ist, ist keines der LVs verfügbar (c) die LVs können einfach mit „vgchange -ay“ verfügbar gemacht werden und alles ist gut bis zum nächsten Neustart. Darüber hinaus meldet keines der LVs Informationen zum freien Speicherplatz
Hintergrund - während einer Testinstallation einer anderen Distribution wurden alle LVM-Metadaten gelöscht. Ich konnte die LVM-Volumes mithilfe der gespeicherten Metadaten wiederherstellen, ABER es trat das Problem auf, dass beim Booten keine LVs aktiviert wurden. Ich habe zum Testen andere Distributionen und andere Ubuntu-Installationen installiert - alle haben das gleiche Problem. Dies deutet darauf hin, dass etwas in den LVM-Daten/Metadaten ist. Es gibt keine offensichtlich relevanten Nachrichten in dmesg. Ich kann keine Probleme mit /etc/lvm/lvm.conf erkennen. pvscan/vgscan/lvscan werden alle ordnungsgemäß abgeschlossen, ohne dass Fehler gefunden wurden. Alle Daten befinden sich auf einer einzigen Festplatte, in einem einzigen Bereich.
lvs
LV VG Attr LSize Pool Origin Data% Move Log Copy% Convert
lvwin-data virt-test -wi-a---- 20.00g
lvwin7_kvm virt-test -wi-a---- 260.00g
lvwin7_kvm_copy virt-test -wi-a---- 260.00g
lvwin7a virt-test -wi-a---- 512.00g
lvwin7ub virt-test -wn-a---- 40.00g
lvwin7ub-pre-catalyst virt-test -wi-a---- 40.00g
lxc_images virt-test -wn-a---- 100.00g
programming_data virt-test -wi-a---- 50.00g
xen-test-snap virt-test swi-a-s-- 30.00g xen-test-win7 38.57
xen-test-win7 virt-test owi-a-s-- 150.00g
/etc/lvm/lvm.conf
devices {
dir = "/dev"
scan = [ "/dev" ]
obtain_device_list_from_udev = 1
preferred_names = [ ]
filter = [ "a/.*/" ]
cache_dir = "/run/lvm"
cache_file_prefix = ""
write_cache_state = 1
sysfs_scan = 1
multipath_component_detection = 1
md_component_detection = 1
md_chunk_alignment = 1
data_alignment_detection = 1
data_alignment = 0
data_alignment_offset_detection = 1
ignore_suspended_devices = 0
disable_after_error_count = 0
require_restorefile_with_uuid = 1
pv_min_size = 2048
issue_discards = 1
}
allocation {
maximise_cling = 1
mirror_logs_require_separate_pvs = 0
thin_pool_metadata_require_separate_pvs = 0
}
log {
verbose = 0
silent = 0
syslog = 1
overwrite = 0
level = 0
indent = 1
command_names = 0
prefix = " "
}
backup {
backup = 1
backup_dir = "/etc/lvm/backup"
archive = 1
archive_dir = "/etc/lvm/archive"
retain_min = 10
retain_days = 30
}
shell {
history_size = 100
}
global {
umask = 077
test = 0
units = "h"
si_unit_consistency = 1
activation = 1
proc = "/proc"
locking_type = 1
wait_for_locks = 1
fallback_to_clustered_locking = 1
fallback_to_local_locking = 1
locking_dir = "/run/lock/lvm"
prioritise_write_locks = 1
abort_on_internal_errors = 0
metadata_read_only = 0
mirror_segtype_default = "mirror"
use_lvmetad = 0
thin_check_executable = "/usr/sbin/thin_check"
thin_check_options = [ "-q" ]
}
activation {
checks = 0
udev_sync = 1
udev_rules = 1
verify_udev_operations = 0
retry_deactivation = 1
missing_stripe_filler = "error"
use_linear_target = 1
reserved_stack = 64
reserved_memory = 8192
process_priority = -18
mirror_region_size = 512
readahead = "auto"
raid_fault_policy = "warn"
mirror_log_fault_policy = "allocate"
mirror_image_fault_policy = "remove"
snapshot_autoextend_threshold = 100
snapshot_autoextend_percent = 20
thin_pool_autoextend_threshold = 100
thin_pool_autoextend_percent = 20
use_mlockall = 0
monitoring = 0
polling_interval = 15
}
####################
# Advanced section #
####################
dmeventd {
mirror_library = "libdevmapper-event-lvm2mirror.so"
snapshot_library = "libdevmapper-event-lvm2snapshot.so"
thin_library = "libdevmapper-event-lvm2thin.so"
}
Alle Debugging-Vorschläge sind willkommen