У меня была настройка RAID 6 в Cockpit UI с несколькими разделами. Был один раздел, который я хотел расширить с 10 ТБ до 11 ТБ, используя доступное пространство, и попытался сделать это на /dev/md127p6, используя "growpart /dev/md127p6 1". После этого я заметил, что могу получить доступ к некоторым точкам монтирования в системе под этим массивом (на самом деле к двум).
С этого момента я решил перезапустить (проверил /proc/mdstat, и он ничего не сделал). Как только сервер снова заработал, все разделы для этого рейда исчезли.
Как только сервер снова заработал, я заметил, что размер рейда изменился (с 189TiB до 143TiB). Очевидно, я что-то напутал, но мне интересно, есть ли у кого-нибудь идеи, прежде чем я начну все сначала.
mdadm --detail /dev/md127 /dev/md127: Версия: 1.2 Время создания: Пн Май 17 20:04:04 2021 Уровень рейда: raid6 Размер массива: 153545080832 (146432,00 ГиБ 157230,16 ГБ) Использованный размер Dev: 11811160064 (11264,00 ГиБ 12094,63 ГБ) Устройства рейда: 15 Всего устройств: 15 Постоянство: Суперблок является постоянным
Intent Bitmap : Internal Update Time : Mon Aug 2 20:05:13 2021 State : clean Active Devices : 15 Working Devices : 15 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 4K
Политика согласованности: битовая карта
Name : storback:backups UUID : c8d289dd:2cb2ded3:cbcff4cd:1e7367ee Events : 150328 Number Major Minor RaidDevice State 0 8 32 0 active sync /dev/sdc 1 8 48 1 active sync /dev/sdd 2 8 64 2 active sync /dev/sde 3 8 80 3 active sync /dev/sdf 4 8 96 4 active sync /dev/sdg 5 8 112 5 active sync /dev/sdh 6 8 128 6 active sync /dev/sdi 7 8 144 7 active sync /dev/sdj 8 8 160 8 active sync /dev/sdk 9 8 192 9 active sync /dev/sdm 10 8 176 10 active sync /dev/sdl 11 8 208 11 active sync /dev/sdn 12 8 224 12 active sync /dev/sdo 13 8 240 13 active sync /dev/sdp 14 65 0 14 active sync /dev/sdq
решение1
Ну, поскольку это не было супер важным устройством, я попытался импровизировать и увеличить рейд до максимального размера, поскольку общий размер был неверным. Казалось, что размер рейда уменьшился на количество свободного неразмеченного пространства, которое у меня было до этого.
Я выполнил эту команду, и все разделы восстановились после перезагрузки:
mdadm --grow /dev/md127 -z макс