
У меня есть Linux-шлюз с 2 дисками по 500 ГБ в программном RAID 1 для системы.
/dev/sda = RAID 1
/dev/sdb = RAID 1
/dev/sdc = RAID 5 (NAS 12 drives iSCSI, /home directories)
При замене sdb произошла странная вещь, NAS смонтирован как /dev/sdb при перезагрузке, поэтому процедура восстановления RAID успешно восстановила системный диск RAID 1 на NAS, перезаписав некоторые данные и таблицу разделов. Процесс был прерван мной, когда я увидел, что происходит.
Теперь у меня есть один сломанный раздел размером 500 ГБ на NAS-устройстве объемом 20 ТБ.
Конечно, у меня есть пользователи, у которых нет резервных копий, некоторые 4 ТБ данных высокой важности затерялись где-то на NAS, другие данные можно сбросить.
Я считаю, что данные все еще там, потеряны только разделы.
Я попробовал testdisk, после 4 дней анализа я получил только эти «новые» сломанные разделы:
Disk /dev/sdc - 20 TB / 18 TiB - CHS 2431671 255 63
Partition Start End Size in sectors
D Linux 0 1 1 59999 254 63 963899937 [root]
D Linux RAID 0 1 1 59999 254 63 963899937 [md0]
Я даже могу прочитать некоторые из «новых» данных, которые мне не нужны. Никаких признаков настоящих данных.
Есть идеи, что можно сделать?
решение1
Я видел подобные случаи, когда начало файловой системы было ошибочно перезаписано. Восстановление иногда возможно путем монтирования файловой системы с резервным суперблоком.