Мой сервер настроен на raid1. Несколько ночей назад sda полностью вышел из строя, и данные были повреждены. Я заменил диск, клонировал таблицу разделов и добавил соответствующие массивы. При добавлении sda3 (MD2) повторная синхронизация продолжала давать сбои из-за ошибок ввода-вывода sdb. Я скопировал все файлы, которые смог сохранить, из sdb3 в sda3, перенастроил raid и заменил sdb на новый диск. Сейчас я добавляю разделы sdb в массивы. Меня беспокоит следующее:
cat /proc/mdstat
Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md3 : active raid1 sda4[0]
1822442815 blocks super 1.2 [2/1] [U_]
md2 : active raid1 sda3[1]
1073740664 blocks super 1.2 [2/1] [_U]
md1 : active raid1 sdb2[2] sda2[0]
524276 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sdb1[2] sda1[3]
33553336 blocks super 1.2 [2/2] [UU]
И md0, и md1 отображались как [U_] до синхронизации, почему md2 отображается как [_U]? Я боюсь потерять данные при добавлении sdb3. Я думаю, что первый слот ([U_]) рассматривается mdadm как основной, а второй слот ([_U]) как вторичный, отсюда и опасение, что данные будут удалены для соответствия sdb3.
Пожалуйста, порекомендуйте.
Спасибо.
решение1
Я бы не беспокоился. Я подозреваю, что md3 был создан с помощью команды типа
mdadm --create /dev/md3 -l 1 -n 2 /dev/sda4 /dev/sdb4
а другой был
mdadm --create /dev/md2 -l 1 -n 2 /dev/sdb3 /dev/sda3
Обратите внимание, что два других массива (md0 и md1) также имеют порядок sdb,sda.
Если вы хотите стать супер-параноиком, то вперед и делайте резервные копии своих файлов на внешнем диске, но я подозреваю, что когда вы, наконец, доберетесь до этого,
mdadm /dev/md2 -a /dev/sdb3
восстановление пройдет гладко, поскольку новый раздел (/dev/sdb3) синхронизируется с существующим разделом (/dev/sda3). Положение в списке не имеет значения. программный RAID Linux запоминает, какой раздел был действительным, а какой — самым новым (не полностью синхронизированным).