Ich habe ein paar günstigere Lenovo IX2 2-Disk-NAS-Geräte. Erstens gibt es KEINEN Hardwarefehler, auch nicht bei der Festplatte. Ich hatte einen Stromschlag und ein IX2 hing an einer toten USV und fiel ein paar Mal aus und kam wieder hoch, was ausreichte, um das IX Linux-Betriebssystem zu beschädigen. Da es sich um ein NAS handelt, das seine schreibgeschützten Optionen jedes Mal beim Booten kopiert und es schon ein Riesenaufwand war, nur die laufende Konfiguration zu bearbeiten oder Optware usw. zu installieren, habe ich kein Problem damit, es einfach aus einer alten Konfiguration neu aufzubauen.
PROBLEMsymptome: Viele laufende Konfigurationen scheinen verloren zu sein, die Web-GUI zeigt an, dass ein Zurücksetzen/eine Wiederherstellung auf die Werkseinstellungen erforderlich ist.
ABER - ALS ICH DEN RAID-POOL MANUELL MONTIERTE und dabei den anderen funktionierenden IX2 als „Vorlage“ für die zu prüfenden Dinge verwendete, war die gute Nachricht, dass ALLE BENUTZERDATEN IN AKT SIND UND KEINE RAID-FEHLER VORLIEGEN. (Dies ist RAID0, also wäre ich völlig aufgeschmissen, wenn es welche gäbe, das ist mir völlig klar).
Der einzige Grund, warum ich so hart arbeite, ist die Tatsache, dass die Daten ALLES sind, was es gibt (aber das sollte es wirklich nicht sein).
Der Schlüssel hier sind einige Benutzerdaten, aber ich hatte auf diesem IX ein 2-TB-iSCSI-Volume, das zu 100 % für VMware verwendet wurde. Diese iSCSI-Volume-Datei ist auch intakt. Das ist mein Datenspeicher und genau das, wonach ich suche.
BEREITS ABGESCHLOSSENE ARBEIT: Ich habe ein brandneues 4-TB-WD-USB3-Laufwerk ausgepackt (allerdings nur USB2 auf dem IX2), es angeschlossen und mit mkfs die Standardpartition als EXT4 neu formatiert. Dann habe ich es als /dev/usb gemountet und diesen Befehl bereits vor ungefähr 20 Stunden gestartet:
rsync -axHAWXS --numeric-ids --progress /mnt/pools/A/A0/ /mnt/usb
Ja, ich sehe jetzt, dass ich, weil ich zunächst das neuere info:progress2 ausprobiert habe und es nicht funktioniert hat, nur schnell den Befehl bearbeitet und vergessen habe, das verdammte -P für partiell hinzuzufügen. Das ist eine Frage, ich würde das wirklich gerne beenden und neu starten. Kann ich immer noch --append verwenden, nachdem ich ursprünglich vergessen habe, --partial zu verwenden? Wie kann ich ein Fortsetzen erzwingen und VERMEIDEN, diese 20+ Stunden zu verlieren, wenn ich jetzt neu starten muss? (Dies ist ein optionaler Teil meiner Frage)
Ich habe rsync speziell für den Fortschritt und die Prüfsummen und die Neustartfunktion ausgeführt, obwohl ich wusste, dass es viel langsamer als Standard-CP ist – aber dieser IX2 war immer schlecht, aber ich konnte die Lesegeschwindigkeit über 100 Mbit/s über iSCSI auf 50-65 MB/s erhöhen, aber dieser rsync benötigt im Durchschnitt ~10 MB bei der 2-TB-iSCSI-Datei. Das ist absurd und wird voraussichtlich noch 3 Tage dauern.
ZIEL: Mein ultimatives Ziel (und meine Frage hier) besteht darin, wie ich diese alte IX2-Hardware aufgeben, die Festplatten verschieben und sie innerhalb von Stunden, nicht Tagen, auf einem neueren PC mit einer neueren Linux-Distribution mit vollem SATA3- und USB3-Aufwand mounten kann.
WEITERE DETAILS:
Befehlsausgabe für fdisk -l:
root@ix2b:/mnt/usb/iSCSI# fdisk -l
WARNING: GPT (GUID Partition Table) detected on '/dev/sda'! The util fdisk doesn't support GPT. Use GNU Parted.
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x6fcb5480
Device Boot Start End Blocks Id System
/dev/sda1 1 3907029167 1953514583+ ee GPT
WARNING: GPT (GUID Partition Table) detected on '/dev/sdb'! The util fdisk doesn't support GPT. Use GNU Parted.
Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x2fbbf4b0
Device Boot Start End Blocks Id System
/dev/sdb1 1 3907029167 1953514583+ ee GPT
Disk /dev/md0: 21.5 GB, 21474762752 bytes
2 heads, 4 sectors/track, 5242862 cylinders, total 41942896 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/md0 doesn't contain a valid partition table
Disk /dev/md1: 3957.8 GB, 3957777760256 bytes
2 heads, 4 sectors/track, 966254336 cylinders, total 7730034688 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Disk identifier: 0x00000000
Disk /dev/md1 doesn't contain a valid partition table
Note: sector size is 4096 (not 512)
Disk /dev/sdc: 4000.8 GB, 4000752599040 bytes
255 heads, 63 sectors/track, 60799 cylinders, total 976746240 sectors
Units = sectors of 1 * 4096 = 4096 bytes
Sector size (logical/physical): 4096 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xdb4bf07b
Device Boot Start End Blocks Id System
/dev/sdc1 256 976746239 3906983936 7 HPFS/NTFS/exFAT
root@ix2b:/mnt/usb/iSCSI#
Befehlsausgabe für parted:
Model: WDC WD20EFRX-68AX9N0 (scsi)
Disk /dev/sda: 2000GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 33.6MB 21.5GB 21.5GB primary
2 21.5GB 2000GB 1979GB primary
Model: WDC WD20EFRX-68AX9N0 (scsi)
Disk /dev/sdb: 2000GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 33.6MB 21.5GB 21.5GB primary
2 21.5GB 2000GB 1979GB primary
Model: WD My Book 1230 (scsi)
Disk /dev/sdc: 4001GB
Sector size (logical/physical): 4096B/4096B
Partition Table: msdos
Number Start End Size Type File system Flags
1 1049kB 4001GB 4001GB primary
Model: Linux device-mapper (linear) (dm)
Disk /dev/mapper/b9b358d_vg-lv3707c1c1: 3958GB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Number Start End Size File system Flags
1 0.00B 3958GB 3958GB ext4
Error: /dev/mtdblock0: unrecognised disk label
Error: /dev/mtdblock1: unrecognised disk label
Error: /dev/mtdblock2: unrecognised disk label
Error: /dev/mtdblock3: unrecognised disk label
Error: /dev/md0: unrecognised disk label
Error: /dev/md1: unrecognised disk label
Befehlsausgabe für uname:
root@ix2b:/mnt/usb/iSCSI# uname -a
Linux ix2b 2.6.31.8 Tue Aug 30 10:28:13 EDT 2016 v0.0.9 Tue Aug 30 10:28:13 EDT 2016 armv5tel GNU/Linux
Befehlsausgabe für lsblk:
root@ix2b:/mnt/usb/iSCSI# lsblk /dev/sd[bc] -o NAME,SIZE,TYPE,MAJ:MIN
NAME SIZE TYPE MAJ:MIN
sdb 1.8T disk 8:16
|-sdb1 20G part 8:17
| `-md0 20G raid1 9:0
`-sdb2 1.8T part 8:18
`-md1 3.6T raid0 9:1
`-b9b358d_vg-lv3707c1c1 (dm-0) 3.6T lvm 253:0
sdc 3.7T disk 8:32
`-sdc1 1.7T part 8:33
Antwort1
Offenbar habe ich dies auf der falschen SO-Site gepostet – das Askubuntu hat sich offenbar viel ausführlicher mit diesem Problem befasst und ich habe einige Referenzen zum Studieren gefunden.
Ich werde also eine erste Antwort posten, bin aber nicht überzeugt, ob noch viel mehr dazu gehört. Wenn ja, hinterlassen Sie hier bitte einen Kommentar, um anderen zu helfen!
Booten Sie die LiveCD auf neuerer Hardware mit 2 SATA-Laufwerken, die an die Ports 0 und 1 angeschlossen sind, und einem neuen Datenziellaufwerk, das über SATA oder USB3 angeschlossen ist.
Installieren Sie mdadm:
sudo apt-get install mdadm
Alle Laufwerke nach RAID-Volumes durchsuchen:
sudo mdadm -Q /dev/sd[a-f][1-9]
Versuchen Sie, zu scannen, zusammenzustellen und in Nautilus zu öffnen:
sudo mdadm --assemble --scan
CP/Rsync/TAR/etc Ihre Daten vom RAID-Volume auf ein neues Datenziel
BEARBEITEN: Bislang war die Antwort, die ich oben gepostet habe, richtig, aber dieses NAS hat die Festplatten/RAID-LVM folgendermaßen eingerichtet:
root@ubuntu:~# sudo lsblk -f NAME FSTYPE LABEL UUID MOUNTPOINT sdb
├─sdb2 linux_rai ix2b:1 0b3fca64-f33a-21cc-45dc-6353be71366e
│ └─md1 LVM2_memb HgGqsx-nrcC-MF1f-tWYK-Iv3w-g24n-MylTHy └─sdb1 linux_rai ix2-dl-113:0 70d23f10-3d2b-9d15-4af5-7c4e11dda669
└─md0
sdc
├─sdc2 linux_rai ix2b:1 0b3fca64-f33a-21cc-45dc-6353be71366e
│ └─md1 LVM2_memb HgGqsx-nrcC-MF1f-tWYK-Iv3w-g24n-MylTHy └─sdc1 linux_rai ix2-dl-113:0 70d23f10-3d2b-9d15-4af5-7c4e11dda669
└─md0
sda
├─sda2
├─sda5 swap d7fa7f10-c009-435c-8435-e0b4556a235b [SWAP] └─sda1 ext4 5e18f5b8-ff52-4f82-8a2a-24d687eb8413 /
EDIT: Ich habe die restlichen Schritte zusammengetragen und werde sie hier aufschreiben und auch eine Anleitung zum Posten erstellen. Ich habe alle RAID-Volumes in einer virtuellen USB3/SATA-Maschine gemountet, was sich als großartig erwiesen hat und eine nette Variante des Ansatzes ist, den andere beim Versuch zu verfolgen scheinen, NAS-Laufwerke wiederherzustellen. Ich habe sie über SATA3-->USB3-Konverter gemountet, die in der VM mit ca. 120-150 MB/s seq x 2 für den Streifen getestet wurden, also VIEL schneller, als sie im NAS zu lassen! Bleiben Sie dran!