WEITERE DETAILS:

WEITERE DETAILS:

Ich habe ein paar günstigere Lenovo IX2 2-Disk-NAS-Geräte. Erstens gibt es KEINEN Hardwarefehler, auch nicht bei der Festplatte. Ich hatte einen Stromschlag und ein IX2 hing an einer toten USV und fiel ein paar Mal aus und kam wieder hoch, was ausreichte, um das IX Linux-Betriebssystem zu beschädigen. Da es sich um ein NAS handelt, das seine schreibgeschützten Optionen jedes Mal beim Booten kopiert und es schon ein Riesenaufwand war, nur die laufende Konfiguration zu bearbeiten oder Optware usw. zu installieren, habe ich kein Problem damit, es einfach aus einer alten Konfiguration neu aufzubauen.

PROBLEMsymptome: Viele laufende Konfigurationen scheinen verloren zu sein, die Web-GUI zeigt an, dass ein Zurücksetzen/eine Wiederherstellung auf die Werkseinstellungen erforderlich ist.

ABER - ALS ICH DEN RAID-POOL MANUELL MONTIERTE und dabei den anderen funktionierenden IX2 als „Vorlage“ für die zu prüfenden Dinge verwendete, war die gute Nachricht, dass ALLE BENUTZERDATEN IN AKT SIND UND KEINE RAID-FEHLER VORLIEGEN. (Dies ist RAID0, also wäre ich völlig aufgeschmissen, wenn es welche gäbe, das ist mir völlig klar).

Der einzige Grund, warum ich so hart arbeite, ist die Tatsache, dass die Daten ALLES sind, was es gibt (aber das sollte es wirklich nicht sein).

Der Schlüssel hier sind einige Benutzerdaten, aber ich hatte auf diesem IX ein 2-TB-iSCSI-Volume, das zu 100 % für VMware verwendet wurde. Diese iSCSI-Volume-Datei ist auch intakt. Das ist mein Datenspeicher und genau das, wonach ich suche.

BEREITS ABGESCHLOSSENE ARBEIT: Ich habe ein brandneues 4-TB-WD-USB3-Laufwerk ausgepackt (allerdings nur USB2 auf dem IX2), es angeschlossen und mit mkfs die Standardpartition als EXT4 neu formatiert. Dann habe ich es als /dev/usb gemountet und diesen Befehl bereits vor ungefähr 20 Stunden gestartet:

rsync -axHAWXS --numeric-ids --progress /mnt/pools/A/A0/ /mnt/usb

Ja, ich sehe jetzt, dass ich, weil ich zunächst das neuere info:progress2 ausprobiert habe und es nicht funktioniert hat, nur schnell den Befehl bearbeitet und vergessen habe, das verdammte -P für partiell hinzuzufügen. Das ist eine Frage, ich würde das wirklich gerne beenden und neu starten. Kann ich immer noch --append verwenden, nachdem ich ursprünglich vergessen habe, --partial zu verwenden? Wie kann ich ein Fortsetzen erzwingen und VERMEIDEN, diese 20+ Stunden zu verlieren, wenn ich jetzt neu starten muss? (Dies ist ein optionaler Teil meiner Frage)

Ich habe rsync speziell für den Fortschritt und die Prüfsummen und die Neustartfunktion ausgeführt, obwohl ich wusste, dass es viel langsamer als Standard-CP ist – aber dieser IX2 war immer schlecht, aber ich konnte die Lesegeschwindigkeit über 100 Mbit/s über iSCSI auf 50-65 MB/s erhöhen, aber dieser rsync benötigt im Durchschnitt ~10 MB bei der 2-TB-iSCSI-Datei. Das ist absurd und wird voraussichtlich noch 3 Tage dauern.

ZIEL: Mein ultimatives Ziel (und meine Frage hier) besteht darin, wie ich diese alte IX2-Hardware aufgeben, die Festplatten verschieben und sie innerhalb von Stunden, nicht Tagen, auf einem neueren PC mit einer neueren Linux-Distribution mit vollem SATA3- und USB3-Aufwand mounten kann.


WEITERE DETAILS:


Befehlsausgabe für fdisk -l:


root@ix2b:/mnt/usb/iSCSI# fdisk -l

WARNING: GPT (GUID Partition Table) detected on '/dev/sda'! The util fdisk doesn't support GPT. Use GNU Parted.


Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x6fcb5480

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1  3907029167  1953514583+  ee  GPT

WARNING: GPT (GUID Partition Table) detected on '/dev/sdb'! The util fdisk doesn't support GPT. Use GNU Parted.


Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x2fbbf4b0

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1  3907029167  1953514583+  ee  GPT

Disk /dev/md0: 21.5 GB, 21474762752 bytes
2 heads, 4 sectors/track, 5242862 cylinders, total 41942896 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Disk /dev/md1: 3957.8 GB, 3957777760256 bytes
2 heads, 4 sectors/track, 966254336 cylinders, total 7730034688 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Disk identifier: 0x00000000

Disk /dev/md1 doesn't contain a valid partition table
Note: sector size is 4096 (not 512)

Disk /dev/sdc: 4000.8 GB, 4000752599040 bytes
255 heads, 63 sectors/track, 60799 cylinders, total 976746240 sectors
Units = sectors of 1 * 4096 = 4096 bytes
Sector size (logical/physical): 4096 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xdb4bf07b

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1             256   976746239  3906983936    7  HPFS/NTFS/exFAT
root@ix2b:/mnt/usb/iSCSI#

Befehlsausgabe für parted:


Model: WDC WD20EFRX-68AX9N0 (scsi)
Disk /dev/sda: 2000GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number  Start   End     Size    File system  Name     Flags
 1      33.6MB  21.5GB  21.5GB               primary
 2      21.5GB  2000GB  1979GB               primary


Model: WDC WD20EFRX-68AX9N0 (scsi)
Disk /dev/sdb: 2000GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number  Start   End     Size    File system  Name     Flags
 1      33.6MB  21.5GB  21.5GB               primary
 2      21.5GB  2000GB  1979GB               primary


Model: WD My Book 1230 (scsi)
Disk /dev/sdc: 4001GB
Sector size (logical/physical): 4096B/4096B
Partition Table: msdos

Number  Start   End     Size    Type     File system  Flags
 1      1049kB  4001GB  4001GB  primary


Model: Linux device-mapper (linear) (dm)
Disk /dev/mapper/b9b358d_vg-lv3707c1c1: 3958GB
Sector size (logical/physical): 512B/512B
Partition Table: loop

Number  Start  End     Size    File system  Flags
 1      0.00B  3958GB  3958GB  ext4


Error: /dev/mtdblock0: unrecognised disk label

Error: /dev/mtdblock1: unrecognised disk label

Error: /dev/mtdblock2: unrecognised disk label

Error: /dev/mtdblock3: unrecognised disk label

Error: /dev/md0: unrecognised disk label

Error: /dev/md1: unrecognised disk label

Befehlsausgabe für uname:


root@ix2b:/mnt/usb/iSCSI# uname -a
Linux ix2b 2.6.31.8 Tue Aug 30 10:28:13 EDT 2016 v0.0.9 Tue Aug 30 10:28:13 EDT 2016 armv5tel GNU/Linux

Befehlsausgabe für lsblk:


root@ix2b:/mnt/usb/iSCSI# lsblk /dev/sd[bc] -o NAME,SIZE,TYPE,MAJ:MIN
NAME                                 SIZE TYPE  MAJ:MIN
sdb                                  1.8T disk    8:16
|-sdb1                                20G part    8:17
| `-md0                               20G raid1   9:0
`-sdb2                               1.8T part    8:18
  `-md1                              3.6T raid0   9:1
    `-b9b358d_vg-lv3707c1c1 (dm-0)   3.6T lvm   253:0
sdc                                  3.7T disk    8:32
`-sdc1                               1.7T part    8:33

Antwort1

Offenbar habe ich dies auf der falschen SO-Site gepostet – das Askubuntu hat sich offenbar viel ausführlicher mit diesem Problem befasst und ich habe einige Referenzen zum Studieren gefunden.

Ich werde also eine erste Antwort posten, bin aber nicht überzeugt, ob noch viel mehr dazu gehört. Wenn ja, hinterlassen Sie hier bitte einen Kommentar, um anderen zu helfen!

  1. Booten Sie die LiveCD auf neuerer Hardware mit 2 SATA-Laufwerken, die an die Ports 0 und 1 angeschlossen sind, und einem neuen Datenziellaufwerk, das über SATA oder USB3 angeschlossen ist.

  2. Installieren Sie mdadm:

    sudo apt-get install mdadm
    
  3. Alle Laufwerke nach RAID-Volumes durchsuchen:

    sudo mdadm -Q /dev/sd[a-f][1-9]
    
  4. Versuchen Sie, zu scannen, zusammenzustellen und in Nautilus zu öffnen:

    sudo mdadm --assemble --scan
    
  5. CP/Rsync/TAR/etc Ihre Daten vom RAID-Volume auf ein neues Datenziel

    BEARBEITEN: Bislang war die Antwort, die ich oben gepostet habe, richtig, aber dieses NAS hat die Festplatten/RAID-LVM folgendermaßen eingerichtet:

    root@ubuntu:~# sudo lsblk -f NAME FSTYPE LABEL UUID MOUNTPOINT sdb
    ├─sdb2 linux_rai ix2b:1 0b3fca64-f33a-21cc-45dc-6353be71366e
    │ └─md1 LVM2_memb HgGqsx-nrcC-MF1f-tWYK-Iv3w-g24n-MylTHy └─sdb1 linux_rai ix2-dl-113:0 70d23f10-3d2b-9d15-4af5-7c4e11dda669
    └─md0
    sdc
    ├─sdc2 linux_rai ix2b:1 0b3fca64-f33a-21cc-45dc-6353be71366e
    │ └─md1 LVM2_memb HgGqsx-nrcC-MF1f-tWYK-Iv3w-g24n-MylTHy └─sdc1 linux_rai ix2-dl-113:0 70d23f10-3d2b-9d15-4af5-7c4e11dda669
    └─md0
    sda
    ├─sda2
    ├─sda5 swap d7fa7f10-c009-435c-8435-e0b4556a235b [SWAP] └─sda1 ext4 5e18f5b8-ff52-4f82-8a2a-24d687eb8413 /

EDIT: Ich habe die restlichen Schritte zusammengetragen und werde sie hier aufschreiben und auch eine Anleitung zum Posten erstellen. Ich habe alle RAID-Volumes in einer virtuellen USB3/SATA-Maschine gemountet, was sich als großartig erwiesen hat und eine nette Variante des Ansatzes ist, den andere beim Versuch zu verfolgen scheinen, NAS-Laufwerke wiederherzustellen. Ich habe sie über SATA3-->USB3-Konverter gemountet, die in der VM mit ca. 120-150 MB/s seq x 2 für den Streifen getestet wurden, also VIEL schneller, als sie im NAS zu lassen! Bleiben Sie dran!

verwandte Informationen