如何在具有壞磁碟的 RAID0 的 LVM 磁碟區中掛載 XFS 檔案系統?

如何在具有壞磁碟的 RAID0 的 LVM 磁碟區中掛載 XFS 檔案系統?

我有一個小型 NAS,配有兩個 500GB 磁碟,採用 RAID0 (JBOD) 設定。 (我知道,我知道,這是一個大錯誤......正如你將看到的......)

現在,其中一個磁碟開始出現故障(墨菲總是對的,不是嗎…)

我從 NAS 上取下磁碟,將它們放入單獨的 SATA 轉 USB 盒子中,然後將它們直接連接到 Linux 筆記型電腦上進行檢查。結果是磁碟#2 有壞磁區。

我的問題很明顯:如何從故障磁碟中恢復資料?

我在筆記型電腦中組裝了陣列mdadm,希望盡可能恢復(使用ddrescuefsck)。但現在我在安裝磁碟區時遇到錯誤:

$ mount /dev/md1_vg/md1vol1 /media/iarray -o ro  
mount: No data available

我也嘗試過:

$ mount /dev/md126 /media/iarray -o ro
mount: unknown filesystem type 'LVM2_member'

這是設定(在筆記型電腦中):

$ lsblk 
NAME                        MAJ:MIN RM   SIZE RO TYPE   MOUNTPOINT
[...]
sdb                           8:16   0 465,8G  0 disk   
├─sdb1                        8:17   0     2G  0 part   
└─sdb2                        8:18   0 463,8G  0 part   
  └─md126                     9:126  0 927,6G  0 linear 
    └─md1_vg-md1vol1 (dm-0) 252:0    0 927,6G  0 lvm    
sdc                           8:32   0 465,8G  0 disk   
├─sdc1                        8:33   0     2G  0 part   
└─sdc2                        8:34   0 463,8G  0 part   
  └─md126                     9:126  0 927,6G  0 linear 
    └─md1_vg-md1vol1 (dm-0) 252:0    0 927,6G  0 lvm    
sr0                          11:0    1   6,7G  0 rom  

由於我打算使用ddrescue並且該工具使用塊設備(而不是安裝點),因此我嘗試了一下:

$ ddrescue -f -n /dev/md1_vg/md1vol1 lvmimage logfile
GNU ddrescue 1.17
Press Ctrl-C to interrupt
rescued:   498018 MB,  errsize:    498 GB,  current rate:        0 B/s
   ipos:   498018 MB,   errors:       1,    average rate:   25076 kB/s
   opos:   498018 MB,    time since last successful read:       1 s
Finished  

不是好消息:它只拯救了 498GB,並且有 498GB 的​​錯誤。為什麼會發生這種情況?它應該忽略錯誤並繼續讀取設備,不是嗎?看起來它剛剛恢復了磁碟#1。問題是我必須安裝整個磁碟區才能查看檔案系統,因為檔案可能分散在兩個磁碟中。

現在我被困在這裡...我做錯了什麼?我是否應該嘗試單獨恢復每個磁碟分割區,然後組裝到 LVM 磁碟區中?有沒有人成功做過這樣的事情?

我需要恢復這張磁碟...它記錄了我孩子 8 年的生活(照片和影片)、工作、大學工作、我妻子的工作...而我只是無力承擔 2000 歐元的專業恢復服務。

請幫忙!

(與此同時,我花了220 歐元購買了一對新的WD-Red 2TB 磁碟,5 年保固[無論這意味著什麼],當然,在RAID1 設定中......我希望恢復這些磁碟中的任何內容)

相關內容