mdadm: неисправный массив, как восстановить его максимально?

mdadm: неисправный массив, как восстановить его максимально?

У меня на ПК RAID5 с 4 дисками. Все они были исправны (и сам RAID) до этого.

Я попытался установить Windows 8.1, которая автоматически создает этот раздел "SystemReserved". Установщик решил, что хорошее место для размещения этого раздела, не спрашивая пользователя, это одно из RAID-устройств. (Даже не буду начинать ругаться...)

Итак, я остановился на: 3 RAID-устройствах, которые совершенно хороши. (Насколько я думаю и теоретически это имеет смысл) 1 RAID-устройство, которое имеет таблицу разделов и раздел NTF на 350 МБ.

Что я сделал: установил для этого диска статус «неисправный».

   mdadm -f /dev/md0 /dev/sdc

Удалил указанный диск рейда

   mdadm -r /dev/md0 /dev/sdc

Затем я попытался удалить раздел с помощью gparted, чтобы вернуться к "неиспользуемому пространству", поскольку у меня нет раздела на этих дисках. Что поначалу выглядело нормально.

Удалил суперблок, теперь он выглядит как новый диск

    mdadm --zero-superblock /dev/sdc

Затем я снова добавил диск в RAID.

    mdadm --manage -a /dev/md0 /dev/sdc

проверка /proc/mdstat показала, что все вернулось на круги своя и синхронизация sdc идет.

Но при попытке монтирования получаю:

    mount: Stale NFS file handle

dmseg говорит мне:

    EXT3-fs (md0): error: get root inode failed

теперь я снова запустил gparted и как ни странно: sdc все еще имеет этот раздел 350 МБ. Также, когда я смотрю md0-RAID gparted имеет раздел: /dev/md0p1 (неизвестная файловая система, 350 МБ)

Остальное помечено как нераспределенное.

На нем очень ценные данные (личные данные из детства и прочее), и я был бы так рад не потерять их. Так что вы можете понять, что я сейчас очень боюсь что-либо делать самостоятельно... Сейчас я снова установил SDC на неисправный, так что, по крайней мере, я все еще могу сохранить большую часть данных, оставшихся на 3 устройствах...

Мой вопрос: есть идеи, почему md0 теперь имеет раздел? этого не должно быть, верно? потому что это было ТОЛЬКО на sdc, а не на всем raid, и windows не могла видеть RAID, только отдельные устройства. Второй вопрос: как это исправить? Я имею в виду какие-либо идеи о том, как действовать, чтобы потерять как можно меньше?

Если вам нужны какие-либо логи или дополнительная информация, просто спросите! Спасибо большое!

EDIT: вывод /proc/mdstat:

 Personalities : [raid6] [raid5] [raid4] 
 md0 : active raid5 sdd[1] sdc[4](F) sde[3] sdf[2]
  4395415488 blocks level 5, 64k chunk, algorithm 2 [4/3] [_UUU]

 unused devices: <none>

Связанный контент