Можно ли принудительно смонтировать файловую систему RAID без возможности восстановления?

Можно ли принудительно смонтировать файловую систему RAID без возможности восстановления?

У меня была конфигурация RAID5 из 3 дисков. Во время неаккуратной миграции один диск выскочил из массива, а затем за ним последовал другой.

Поэтому я не могу законно перестроить массив, поскольку нет выровненной пары дисков.

Я уже клонировал с помощью dd два диска массива в пару запасных (идентичных) дисков, чтобы иметь возможность все портить и начинать заново столько раз, сколько захочу.

Я знаю, что если данные не совпадут, то, скорее всего, возникнут искажения, но я хотел бы попробовать, просто чтобы узнать что-то новое.

Если я принудительно соберу два диска, я смогу запустить массив, но затем не смогу его смонтировать, потому что:

$ sudo mdadm /dev/md1 --assemble /dev/sde2 /dev/sdd2 -f 
mdadm: /dev/md1 has been started with 2 drives (out of 3).


sudo mount -v /dev/md1 /media/mfloris/raidNas/ 
mount: /media/mfloris/raidNas: wrong fs type, bad option, bad superblock on /dev/md1, missing codepage or helper program, or other error.

Можно ли как-то поработать с метаданными, чтобы система поверила, что диски выровнены?

Я уже пробовалfsck -n /dev/md1(он ничего не делает) иdumpe2fs /dev/md1(в суперблоке написано неверное магическое число)

Я также попробовал:

$sudo file -skL /dev/md1 
/dev/md1: BTRFS Filesystem sectorsize 4096, nodesize 16384, leafsize 16384, UUID=f0b84f7d-7247-4781-959d-1da2eea20e66, 407236403200/5999719088128 bytes used, 1 devices\012- data

$ sudo grep btrfs /proc/filesystems
    btrfs

$ lsmod | grep btrfs
btrfs                1138688  0
zstd_compress         163840  1 btrfs
xor                    24576  2 async_xor,btrfs
raid6_pq              114688  4 async_pq,btrfs,raid456,async_raid6_recov

sudo mount -t btrfs -v /dev/md1 /media/mfloris/raidNas/
mount: /media/mfloris/raidNas: wrong fs type, bad option, bad superblock on /dev/md1, missing codepage or helper program, or other error.

$sudo btrfs check /dev/md1
parent transid verify failed on 654950400 wanted 8458 found 8456
parent transid verify failed on 654950400 wanted 8458 found 8456
parent transid verify failed on 654950400 wanted 8458 found 8460
parent transid verify failed on 654950400 wanted 8458 found 8460
Ignoring transid failure
leaf parent key incorrect 654950400
ERROR: cannot open file system

и опасный

$ sudo btrfsck --init-extent-tree /dev/md1 
Checking filesystem on /dev/md1
UUID: f0b84f7d-7247-4781-959d-1da2eea20e66
Creating a new extent tree
ERROR: tree block bytenr 169114808628 is not aligned to sectorsize 4096
Error reading tree block
error pinning down used bytes
ERROR: attempt to start transaction over already running one
extent buffer leak: start 653361152 len 16384

Как я могу попытаться исправить суперблок?

Это состояние устройств. Счетчик событий близок, время обновления составляет около 8 часов, но данные, скорее всего, были нетронутыми в течение этого периода.

$sudo mdadm -E /dev/sd*2
/dev/sdd2:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x1
     Array UUID : b57aca26:65609077:9fe7889a:6241c63a
           Name : NAS:1
  Creation Time : Fri Aug  3 08:13:23 2018
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5859101344 (2793.84 GiB 2999.86 GB)
     Array Size : 5859100672 (5587.67 GiB 5999.72 GB)
  Used Dev Size : 5859100672 (2793.84 GiB 2999.86 GB)
   Super Offset : 5859101600 sectors
   Unused Space : before=0 sectors, after=912 sectors
          State : clean
    Device UUID : bb700941:772cb7b0:db32a940:e902d0bd

Internal Bitmap : -16 sectors from superblock
    Update Time : Tue Aug 28 07:47:49 2018
       Checksum : 153fd25e - correct
         Events : 78660

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : .A. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sde2:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x1
     Array UUID : b57aca26:65609077:9fe7889a:6241c63a
           Name : NAS:1
  Creation Time : Fri Aug  3 08:13:23 2018
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5859101344 (2793.84 GiB 2999.86 GB)
     Array Size : 5859100672 (5587.67 GiB 5999.72 GB)
  Used Dev Size : 5859100672 (2793.84 GiB 2999.86 GB)
   Super Offset : 5859101600 sectors
   Unused Space : before=0 sectors, after=912 sectors
          State : clean
    Device UUID : c844b66b:fe21447d:e74c865a:751baa07

Internal Bitmap : -16 sectors from superblock
    Update Time : Tue Aug 28 00:04:18 2018
       Checksum : 703361e6 - correct
         Events : 78660

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)

Связанный контент