
私の Ubuntu Trusty AMD64、KDE デスクトップ ビルドには、それぞれ 1 つの VG を持つ 2 つの LVM2 PV があります。各 VG には 2 つ以上の LV が含まれています。起動時に (a) LV はどれも「使用可能」ではないため、fstab からマウントできず、起動時にエラーが発生します (b) KDE が起動すると、LV はどれも使用できなくなります (c) LV は「vgchange -ay」で簡単に使用可能にでき、次の再起動まですべて正常です。さらに、LV はどれも空き領域情報を報告しません
背景 - 別のディストリビューションのテストインストール中に、LVM メタデータがすべて削除されました。保存したメタデータを使用して LVM ボリュームを回復できましたが、ブート時に LV がアクティブ化されないという問題が発生しました。テストのために他のディストリビューションをインストールしましたが、他の Ubuntu インストールではすべて同じ問題が発生しています。これは、lvm データ/メタデータに何かがあることを示しています。dmesg には明らかに関連するメッセージはありません。/etc/lvm/lvm.conf に問題は見当たりません。pvscan / vgscan / lvscan はすべて完了し、エラーは見つかりませんでした。すべてのデータは単一の HDD の単一のエクステントにあります。
lvs
LV VG Attr LSize Pool Origin Data% Move Log Copy% Convert
lvwin-data virt-test -wi-a---- 20.00g
lvwin7_kvm virt-test -wi-a---- 260.00g
lvwin7_kvm_copy virt-test -wi-a---- 260.00g
lvwin7a virt-test -wi-a---- 512.00g
lvwin7ub virt-test -wn-a---- 40.00g
lvwin7ub-pre-catalyst virt-test -wi-a---- 40.00g
lxc_images virt-test -wn-a---- 100.00g
programming_data virt-test -wi-a---- 50.00g
xen-test-snap virt-test swi-a-s-- 30.00g xen-test-win7 38.57
xen-test-win7 virt-test owi-a-s-- 150.00g
lvm.conf は、
devices {
dir = "/dev"
scan = [ "/dev" ]
obtain_device_list_from_udev = 1
preferred_names = [ ]
filter = [ "a/.*/" ]
cache_dir = "/run/lvm"
cache_file_prefix = ""
write_cache_state = 1
sysfs_scan = 1
multipath_component_detection = 1
md_component_detection = 1
md_chunk_alignment = 1
data_alignment_detection = 1
data_alignment = 0
data_alignment_offset_detection = 1
ignore_suspended_devices = 0
disable_after_error_count = 0
require_restorefile_with_uuid = 1
pv_min_size = 2048
issue_discards = 1
}
allocation {
maximise_cling = 1
mirror_logs_require_separate_pvs = 0
thin_pool_metadata_require_separate_pvs = 0
}
log {
verbose = 0
silent = 0
syslog = 1
overwrite = 0
level = 0
indent = 1
command_names = 0
prefix = " "
}
backup {
backup = 1
backup_dir = "/etc/lvm/backup"
archive = 1
archive_dir = "/etc/lvm/archive"
retain_min = 10
retain_days = 30
}
shell {
history_size = 100
}
global {
umask = 077
test = 0
units = "h"
si_unit_consistency = 1
activation = 1
proc = "/proc"
locking_type = 1
wait_for_locks = 1
fallback_to_clustered_locking = 1
fallback_to_local_locking = 1
locking_dir = "/run/lock/lvm"
prioritise_write_locks = 1
abort_on_internal_errors = 0
metadata_read_only = 0
mirror_segtype_default = "mirror"
use_lvmetad = 0
thin_check_executable = "/usr/sbin/thin_check"
thin_check_options = [ "-q" ]
}
activation {
checks = 0
udev_sync = 1
udev_rules = 1
verify_udev_operations = 0
retry_deactivation = 1
missing_stripe_filler = "error"
use_linear_target = 1
reserved_stack = 64
reserved_memory = 8192
process_priority = -18
mirror_region_size = 512
readahead = "auto"
raid_fault_policy = "warn"
mirror_log_fault_policy = "allocate"
mirror_image_fault_policy = "remove"
snapshot_autoextend_threshold = 100
snapshot_autoextend_percent = 20
thin_pool_autoextend_threshold = 100
thin_pool_autoextend_percent = 20
use_mlockall = 0
monitoring = 0
polling_interval = 15
}
####################
# Advanced section #
####################
dmeventd {
mirror_library = "libdevmapper-event-lvm2mirror.so"
snapshot_library = "libdevmapper-event-lvm2snapshot.so"
thin_library = "libdevmapper-event-lvm2thin.so"
}
デバッグに関する提案は歓迎します