Поврежденная файловая система после добавления диска в mdadm raid 6

Поврежденная файловая система после добавления диска в mdadm raid 6

У меня файловая система mdadm raid 6, в которой работают только 3 диска из 4. У меня 4 диска по 2 ТБ, всякий раз, когда я добавляю 4-й диск (я пытался всю неделю) и делаю , lsу меня возникают некоторые ошибки файловой системы:

$ ll /mnt/downloads/downloads
...
d????????? ? ?    ?       ?                   ? drivers/
...

Но всякий раз, когда я удаляю недавно добавленный диск, файловая система отображается правильно:

$ sudo mdadm /dev/md0 --fail /dev/sde1
mdadm: set /dev/sde1 faulty in /dev/md0
$ ll /mnt/downloads/downloads
(correct contents)

Я пробовал обнулить суперблок, выполнить sudo wipefs -a /dev/sde1очистку блоков, связанных с рейдом, и все это приводило к одной и той же ошибке.

Проверка массива mdadm всего с 3 дисками не выявила ошибок, выполнив echo check > /sys/block/md0/md/sync_action.

Я попробовал прочитать все сектора диска, чтобы посмотреть, есть ли там плохой блок, но ничего подобного не произошло.

Сейчас я запускаю sudo badblocks -wsv /dev/sde1на диске, но сомневаюсь, что появятся какие-либо ошибки.

Это меня очень смутило: может, мой диск просто неисправен и проверки диска по какой-то причине не работают?

Или это связано с тем, что я неправильно добавил диск? Я запустил:

sudo mdadm /dev/md0 -a /dev/sde1

Думаю, я всегда запускал эту команду, когда файловая система была еще смонтирована, и отмонтировал ее во время добавления диска. Не думаю, что это вызовет проблему, не так ли?

решение1

Если сам диск неисправен, то, скорее всего, это ошибка ядра.

Например, недавно возникла ошибка повреждения данных, связанная с повторной синхронизацией RAID6, и в зависимости от используемой версии ядра она может на вас повлиять:

ОШИБКА: восстановление RAID6 нарушено из-за фиксации 4f4fd7c5798bbdd5a03a60f6269cf1177fbd11ef

В противном случае также проверьте наличие несоответствий RAID ( mdadm --action=check /dev/mdX, watch head /sys/block/md*/md/mismatch_cnt), которые могут присутствовать в оставшейся четности RAID6.

Также проверьте все остальные углы, memtest, smartctl и т. д., а также dmesg на наличие сообщений об ошибках, которые могли появиться во время повторной синхронизации.

решение2

Обнаружил проблему во время игры с btrfs, иобновление vmware, оказывается:

Жесткий диск 0 и жесткий диск 4, физические жесткие диски, которые я добавил в свою гостевую систему Arch Linux VMware, были одним и тем же.

Неудивительно, что он сломался.

Ответ frostschutz все еще мог иметь значение, поскольку моя версия ядра была в числе затронутых версий.

Связанный контент