
Основная часть моей проблемы уже обсуждалась здесь в другой раз... ... но у меня есть два особых вопроса, на которые раньше не было ответов.
Ситуация: Я обновил свое оборудование, установив два новых диска и изменив настройки.
Этоновыйнастраивать
PROMPT> blkid
/dev/nvme0n1p3: UUID="29cd2fd5-2cd5-455c-9ac0-7cb278e46ee3" TYPE="swap" PARTUUID="dc3d569d-363f-4f68-87ac-56e1bdb4f29d"
/dev/nvme0n1p1: UUID="D2F8-117C" TYPE="vfat" PARTUUID="cdc50870-bddc-47bf-9835-369694713e41"
/dev/nvme0n1p2: UUID="e36edd7b-d3fd-45f4-87a8-f828238aab08" TYPE="ext4" PARTUUID="25d98b84-55a1-4dd8-81c1-f2cfece5c802"
/dev/sda: UUID="2d9225e8-edc1-01fc-7d54-45fcbdcc8020" UUID_SUB="fec59176-0f3a-74d4-1947-32b508978749" LABEL="fangorn:0" TYPE="linux_raid_member"
/dev/sde: UUID="2d9225e8-edc1-01fc-7d54-45fcbdcc8020" UUID_SUB="efce71d0-3080-eecb-ce2f-8a166b2e4441" LABEL="fangorn:0" TYPE="linux_raid_member"
/dev/sdf: UUID="dddf84e3-2ec3-4156-8d18-5f1dce7be002" UUID_SUB="be5e9e9f-d627-2968-837c-9f656d2f62ba" LABEL="fangorn:1" TYPE="linux_raid_member"
/dev/sdg: UUID="dddf84e3-2ec3-4156-8d18-5f1dce7be002" UUID_SUB="1e73b358-a0c8-1c2d-34bd-8663e7906e6f" LABEL="fangorn:1" TYPE="linux_raid_member"
/dev/sdh1: UUID="6588304d-6098-4f80-836e-0e4832e2de8f" TYPE="ext4" PARTUUID="000533fc-01"
/dev/md0: UUID="7Nyd6C-oG50-b3jJ-aGkL-feIE-pAFc-5uM7vy" TYPE="LVM2_member"
/dev/md1: UUID="MtJAdS-Jdbn-2MR7-6evR-XCvL-wEm5-PUkg8p" TYPE="LVM2_member"
/dev/mapper/fg00-Data: LABEL="data" UUID="a26b7a38-d24f-4d28-ab8d-89233db95be6" TYPE="ext4"
PROMPT> mdadm -Es
ARRAY /dev/md/1 metadata=1.2 UUID=dddf84e3:2ec34156:8d185f1d:ce7be002 name=fangorn:1
ARRAY /dev/md/0 metadata=1.2 UUID=2d9225e8:edc101fc:7d5445fc:bdcc8020 name=fangorn:0
странный:нет /dev/md/0
и /dev/md/1
файлов, а только /dev/md0
и/dev/md1
PROMPT> mdadm --detail /dev/md[01]
/dev/md0:
Version : 1.2
Creation Time : Wed Oct 16 16:51:48 2019
Raid Level : raid1
Array Size : 3906886464 (3725.90 GiB 4000.65 GB)
Used Dev Size : 3906886464 (3725.90 GiB 4000.65 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Wed Oct 16 16:57:03 2019
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : fangorn:0 (local to host fangorn)
UUID : 2d9225e8:edc101fc:7d5445fc:bdcc8020
Events : 2
Number Major Minor RaidDevice State
0 8 0 0 active sync /dev/sda
1 8 64 1 active sync /dev/sde
/dev/md1:
Version : 1.2
Creation Time : Wed Oct 16 16:51:56 2019
Raid Level : raid1
Array Size : 1953382464 (1862.89 GiB 2000.26 GB)
Used Dev Size : 1953382464 (1862.89 GiB 2000.26 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Wed Oct 16 16:51:56 2019
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : fangorn:1 (local to host fangorn)
UUID : dddf84e3:2ec34156:8d185f1d:ce7be002
Events : 1
Number Major Minor RaidDevice State
0 8 80 0 active sync /dev/sdf
1 8 96 1 active sync /dev/sdg
поверх этих двух массивов RAID1 я построил группу томов, чтобы объединить их в один раздел, который я использую в качестве /data
монтирования
Проблема
Всякий раз, когда я перезагружаюсь, RAID теряется. От массивов не остается ни единого следа.
да, я отредактировал/etc/mdadm/mdadm.conf
PROMPT> cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# !NB! Run update-initramfs -u after updating this file.
# !NB! This will ensure that initramfs has an uptodate copy.
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
DEVICE /dev/sda /dev/sde /dev/sdf /dev/sdg
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR m++++@++++++.++
# definitions of existing MD arrays
#ARRAY /dev/md1 metadata=1.2 name=fangorn:1 UUID=7068062b:a1a9265e:a7b5dc00:586d9f1b
#ARRAY /dev/md0 metadata=1.2 name=fangorn:0 UUID=9ab9aecd:cdfd3fe8:04587007:892edf3e
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=1.2 name=fangorn:0 UUID=7368baaf:9b08df19:d9362975:bf70eb1f devices=/dev/sda,/dev/sde
ARRAY /dev/md1 level=raid1 num-devices=2 metadata=1.2 name=fangorn:1 UUID=dc218d09:18f63682:78b5ab94:6aa53459 devices=/dev/sdf,/dev/sdg
да, я выпустилupdate-initramfs -u
единственный способ вернуть мои данные — пересоздавать массивы после каждой перезагрузки:
mdadm --create /dev/md0 --assume-clean --level=raid1 --verbose --raid-devices=2 /dev/sda /dev/sde
mdadm --create /dev/md1 --assume-clean --level=raid1 --verbose --raid-devices=2 /dev/sdf /dev/sdg
- обратите внимание на
--assume-clean
переключатели - LVM немедленно воссоздается и может быть смонтирован.
- Никакие данные не теряются.
НО: как заставить систему заново собирать массивы при перезагрузке?
На дисках уже достаточно много данных, поэтому я бы не хотел переразбивать базовое оборудование, если бы у меня не было способа сделать это без потери данных.
Могу ли я получить доступ к данным без запущенных массивов и LVM?
Дополнительная информация
- добавлено 2019-10-22
Сразу после перезагрузки — т. е. когда повторная сборка не удалась и я нахожусь в однопользовательском режиме — я получаю следующие выходные данные от mdadm (я удалил их, mdadm.conf
чтобы посмотреть, поможет ли это — не помогло):
PROMPT> mdadm --assemble --scan -v
mdadm: looking for devices for further assembly
mdadm: cannot open device /dev/sr0: No medium found
mdadm: no recogniseable superblock on /dev/sdh1
mdadm: Cannot assemble mbr metadata on /dev/sdh
mdadm: Cannot assemble mbr metadata on /dev/sdg
mdadm: Cannot assemble mbr metadata on /dev/sdf
mdadm: Cannot assemble mbr metadata on /dev/sde
mdadm: Cannot assemble mbr metadata on /dev/sda
mdadm: no recogniseable superblock on /dev/nvme0n1p3
mdadm: no recogniseable superblock on /dev/nvme0n1p2
mdadm: Cannot assemble mbr metadata on /dev/nvme0n1p1
mdadm: Cannot assemble mbr metadata on /dev/nvme0n1
mdadm: No arrays found in config file or automatically
После этого я пересоздал массивы, как описано выше, и получил такой вывод:
PROMPT> mdadm --create /dev/md0 --assume-clean --level=raid1 --verbose --raid-devices=2 /dev/sda /dev/sde
mdadm: partition table exists on /dev/sda
mdadm: partition table exists on /dev/sda but will be lost or
meaningless after creating array
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: partition table exists on /dev/sde
mdadm: partition table exists on /dev/sde but will be lost or
meaningless after creating array
mdadm: size set to 3906886464K
mdadm: automatically enabling write-intent bitmap on large array
Continue creating array?
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
PROMPT> mdadm --create /dev/md1 --assume-clean --level=raid1 --verbose --raid-devices=2 /dev/sdf /dev/sdg
mdadm: partition table exists on /dev/sdf
mdadm: partition table exists on /dev/sdf but will be lost or
meaningless after creating array
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: partition table exists on /dev/sdg
mdadm: partition table exists on /dev/sdg but will be lost or
meaningless after creating array
mdadm: size set to 1953382464K
mdadm: automatically enabling write-intent bitmap on large array
Continue creating array?
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
Сделал еще один lsblk
после этого:
PROMPT> lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME SIZE FSTYPE TYPE MOUNTPOINT
sda 3,7T linux_raid_member disk
└─md0 3,7T LVM2_member raid1
└─fg00-Data 5,5T ext4 lvm /data
sde 3,7T linux_raid_member disk
└─md0 3,7T LVM2_member raid1
└─fg00-Data 5,5T ext4 lvm /data
sdf 1,8T linux_raid_member disk
└─md1 1,8T LVM2_member raid1
└─fg00-Data 5,5T ext4 lvm /data
sdg 1,8T linux_raid_member disk
└─md1 1,8T LVM2_member raid1
└─fg00-Data 5,5T ext4 lvm /data
sdh 119,2G disk
└─sdh1 119,2G ext4 part /home
sr0 1024M rom
nvme0n1 477G disk
├─nvme0n1p1 300M vfat part /boot/efi
├─nvme0n1p2 442,1G ext4 part /
└─nvme0n1p3 34,6G swap part [SWAP]
Это намек, который кто-то может понять?
PROMPT> fdisk -l
The primary GPT table is corrupt, but the backup appears OK, so that will be used.
Disk /dev/sda: 3,65 TiB, 4000787030016 bytes, 7814037168 sectors
Disk model: ST4000DM004-2CV1
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 513C284A-5CC0-4888-8AD0-83C4291B3D78
The primary GPT table is corrupt, but the backup appears OK, so that will be used.
Disk /dev/sde: 3,65 TiB, 4000787030016 bytes, 7814037168 sectors
Disk model: ST4000DM004-2CV1
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 437D10E3-E679-4062-9321-E8EE1A1AA2F5
The primary GPT table is corrupt, but the backup appears OK, so that will be used.
Disk /dev/sdf: 1,84 TiB, 2000398934016 bytes, 3907029168 sectors
Disk model: ST2000DL003-9VT1
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: E07D5DB8-7253-45DE-92C1-255B7F3E56C8
The primary GPT table is corrupt, but the backup appears OK, so that will be used.
Disk /dev/sdg: 1,84 TiB, 2000398934016 bytes, 3907029168 sectors
Disk model: Hitachi HDS5C302
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: E07D5DB8-7253-45DE-92C1-255B7F3E56C8
Disk /dev/md0: 3,65 TiB, 4000651739136 bytes, 7813772928 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/md1: 1,84 TiB, 2000263643136 bytes, 3906764928 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/mapper/fg00-Data: 5,47 TiB, 6000908173312 bytes, 11720523776 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
еще немного информации
PROMPT> gdisk /dev/sda
GPT fdisk (gdisk) version 1.0.4
Caution! After loading partitions, the CRC doesn't check out!
Warning! Main partition table CRC mismatch! Loaded backup partition table
instead of main partition table!
Warning! One or more CRCs don't match. You should repair the disk!
Main header: OK
Backup header: OK
Main partition table: ERROR
Backup partition table: OK
Partition table scan:
MBR: protective
BSD: not present
APM: not present
GPT: damaged
****************************************************************************
Caution: Found protective or hybrid MBR and corrupt GPT. Using GPT, but disk
verification and recovery are STRONGLY recommended.
****************************************************************************
решение1
Я хотел бы представить еще один вариант решения Martin L. Он отличается тем, что вносит гораздо меньше простоев, поскольку миграция данных на новый массив может быть выполнена прозрачно, пока система работает. Вы заметите только снижение производительности диска во время миграции.
Делай как предлагаетсяв своем ответевплоть до того места, где он предлагает создать новые ВГ.
Не создавайте новые VG. Создайте новые PV на вновь созданных массивах и расширьте существующую VG этими PV: vgextend fg00 /dev/md-NEW
.
Затем переместите логические тома со старых pv на новые с помощью pvmove /dev/md-OLD
. Это можно сделать даже при смонтированных и доступных файловых системах. Это займет много времени, но в конечном итоге завершится. Я бы запустил это в screen
, и подробно: screen pvmove -vi5 /dev/md-OLD
, чтобы быть уверенным, что это не прервется, если сеанс SSH закроется, и он будет показывать прогресс каждые 5 секунд.
Может быть, в новом PV недостаточно PE для этого. Это происходит потому, что теперь вы используете разделы вместо целых дисков, полезное пространство и размер массива немного меньше. Если это так, вам нужно уменьшить один LV. Например, размонтируйте FS, уменьшите его (с помощью resize2fs
) и уменьшите размер LV. Это займет больше времени, но все равно быстрее, чем копирование занятой файловой системы пофайлово.
Когда старые PV пусты (pvmove завершается), удалите их из VG, удалите метки PV и удалите старые массивы. Удалите эти теперь неиспользуемые диски, разбейте их на разделы и добавьте в работающие массивы. Повторная синхронизация массива также будет выполняться в фоновом режиме, и вы заметите только снижение производительности диска, пока она не завершится.
Теперь не забудьте исправить загрузку, т.е. mdadam --examine --scan >> /etc/mdadm/mdadm.conf
и update-initramfs
т.д.
решение2
@nh2 дает простой, новозможно опаснорешение в его ответе наВ чем разница между созданием массива mdadm с использованием разделов или целых дисков напрямую?
Кстати, если это произойдет с вами, ваши данные не будут потеряны.Скорее всего, вы можете просто выбрать
sgdisk --zap
устройство, а затем заново создать RAID, например, с помощьюmdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sdc /dev/sdd
(mdadm сообщит вам, что он уже обнаружил прошлые данные, и спросит, хотите ли вы продолжить повторное использование этих данных). Я пробовал это несколько раз, и это сработало, но я все равно рекомендую сделать резервную копию, прежде чем вы это сделаете.
После длительных исследований мне удалось найти решение.
Вот, что я сделал
Сначала немного информации о статусе
PROMPT> df -h
Dateisystem Größe Benutzt Verf. Verw% Eingehängt auf
/dev/mapper/fg00-Data 5,4T 1,5T 3,8T 28% /data
Затем отмонтируйте раздел.
PROMPT> umount /data
PROMPT> cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid1 sdg[1] sdf[0]
1953382464 blocks super 1.2 [2/2] [UU]
bitmap: 0/15 pages [0KB], 65536KB chunk
md0 : active raid1 sde[1] sda[0]
3906886464 blocks super 1.2 [2/2] [UU]
bitmap: 0/30 pages [0KB], 65536KB chunk
unused devices: <none>
Теперь я деградирую два массива
PROMPT > mdadm --manage /dev/md0 --fail /dev/sde
mdadm: set /dev/sde faulty in /dev/md0
PROMPT > mdadm --manage /dev/md1 --fail /dev/sdg
mdadm: set /dev/sdg faulty in /dev/md1
PROMPT > cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid1 sdg[1](F) sdf[0]
1953382464 blocks super 1.2 [2/1] [U_]
bitmap: 0/15 pages [0KB], 65536KB chunk
md0 : active raid1 sde[1](F) sda[0]
3906886464 blocks super 1.2 [2/1] [U_]
bitmap: 0/30 pages [0KB], 65536KB chunk
unused devices: <none>
Удалить диски из массива
PROMPT > mdadm --manage /dev/md0 --remove /dev/sde
mdadm: hot removed /dev/sde from /dev/md0
PROMPT > mdadm --manage /dev/md1 --remove /dev/sdg
mdadm: hot removed /dev/sdg from /dev/md1
PROMPT > cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid1 sdf[0]
1953382464 blocks super 1.2 [2/1] [U_]
bitmap: 0/15 pages [0KB], 65536KB chunk
md0 : active raid1 sda[0]
3906886464 blocks super 1.2 [2/1] [U_]
bitmap: 0/30 pages [0KB], 65536KB chunk
unused devices: <none>
Теперь /dev/sde
и /dev/sdg
могут быть свободно (пере)разделены.
- Поэтому я создал новые разделы, как и предлагалось, на
/dev/sde
несколько/dev/sdg
МБ меньше доступного пространства. - Созданы новые 2-дисковые массивы RAID1 с одним активным диском и одним «отсутствующим»
- создал новую группу томов LVM с этими новыми массивами в качестве физических томов
- создал логический том поверх него (того же размера, что и старый, за исключением нескольких МБ, которые я потерял при создании разделов)
- скопировал все данные со старого LV на новый
- уничтожил старый RAID и добавил разделы
дисковв новый
Вот новый статус
PROMPT > lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME SIZE FSTYPE TYPE MOUNTPOINT
sda 3,7T disk
└─sda1 3,7T linux_raid_member part
└─md2 3,7T LVM2_member raid1
└─fg01-Data 5,5T ext4 lvm /data
sde 3,7T disk
└─sde1 3,7T linux_raid_member part
└─md2 3,7T LVM2_member raid1
└─fg01-Data 5,5T ext4 lvm /data
sdf 1,8T disk
└─sdf1 1,8T linux_raid_member part
└─md3 1,8T LVM2_member raid1
└─fg01-Data 5,5T ext4 lvm /data
sdg 1,8T disk
└─sdg1 1,8T linux_raid_member part
└─md3 1,8T LVM2_member raid1
└─fg01-Data 5,5T ext4 lvm /data
sdh 119,2G disk
└─sdh1 119,2G ext4 part /home
sr0 1024M rom
nvme0n1 477G disk
├─nvme0n1p1 300M vfat part /boot/efi
├─nvme0n1p2 442,1G ext4 part /
└─nvme0n1p3 34,6G swap part [SWAP]
PROMPT > cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md3 : active raid1 sdf1[1] sdg1[0]
1953381376 blocks super 1.2 [2/1] [U_]
[==>..................] recovery = 10.0% (196493504/1953381376) finish=224.9min speed=130146K/sec
bitmap: 0/15 pages [0KB], 65536KB chunk
md2 : active raid1 sda1[1] sde1[0]
3906884608 blocks super 1.2 [2/1] [U_]
[=>...................] recovery = 6.7% (263818176/3906884608) finish=429.0min speed=141512K/sec
bitmap: 2/30 pages [8KB], 65536KB chunk
unused devices: <none>