DETALHES ADICIONAIS:

DETALHES ADICIONAIS:

Tenho alguns dispositivos NAS de 2 discos Lenovo IX2 mais baratos. Em primeiro lugar, NÃO há falha de hardware, incluindo disco. Tive um choque de energia e um IX2 estava em um no-break morto, caiu e voltou algumas vezes, o que foi suficiente para corromper o sistema operacional IX Linux. Como este é um NAS que está copiando sua opção somente leitura na inicialização todas as vezes e já foi um grande problema apenas editar a configuração em execução ou instalar optware etc., não tenho problema em simplesmente reconstruí-lo a partir de uma configuração antiga.

PROBLEMA Sintomas: Muitas configurações em execução parecem perdidas, a GUI da web indica que é necessária uma redefinição/restauração de fábrica.

NO ENTANTO - DEPOIS DE MONTAR MANUALMENTE O RAID POOL usando o outro IX2 funcional como um "modelo" de coisas a serem observadas, a boa notícia é que TODOS OS DADOS DO USUÁRIO ESTÃO TATOS E NÃO EXISTEM ERROS DE RAID. (Este é RAID0, então eu seria totalmente SOL se houvesse, eu percebo isso perfeitamente).

Como os dados SÃO todos, essa é a única razão pela qual estou trabalhando tanto (mas realmente não deveria ser).

A chave aqui são alguns dados do usuário, mas eu tinha um volume iSCSI de 2 TB neste IX, sendo usado 100% para VMware. Este arquivo de volume iSCSI também está intacto. Ser meu armazenamento de dados é realmente o que procuro.

TRABALHO JÁ CONCLUÍDO: Desembalei uma nova unidade WD USB3 de 4 TB (embora apenas USB2 no IX2), conectei-a e usei mkfs para reformatar a partição padrão como EXT4. Eu então montei-o como /dev/usb e comecei este comando, cerca de 20 horas atrás:

rsync -axHAWXS --numeric-ids --progress /mnt/pools/A/A0/ /mnt/usb

Sim, agora vejo que, porque inicialmente tentei o info:progress2 mais recente e não funcionou, simplesmente editei rapidamente o cmd e esqueci de adicionar o friggin -P para parcial. Essa é uma pergunta, eu realmente gostaria de encerrar isso e reiniciá-lo, ainda posso usar --append tendo esquecido de usar --partial originalmente? Como posso forçar a continuação e EVITAR perder mais de 20 horas se precisar reiniciar agora? (Esta é uma parte opcional da minha pergunta)

Executei o rsync especificamente para o progresso, somas de verificação e capacidade de reinicialização sabendo que era muito mais lento que o cp padrão - mas esse IX2 sempre foi uma droga, mas eu poderia enviar leituras de 100 mbit para 50-65 MB/s via iSCSI, mas esse rsync está em média ~ 10 MB no arquivo iSCSI de 2 TB. É um absurdo e está estimando mais 3 dias.

OBJETIVO: Meu objetivo final (e a pergunta aqui) é como abandonar esse hardware IX2 antigo e mover os discos e montá-los em um PC mais novo executando uma distribuição Linux mais recente com SATA3 e USB3 completos em horas, não em dias.


DETALHES ADICIONAIS:


Saída do comando para fdisk -l:


root@ix2b:/mnt/usb/iSCSI# fdisk -l

WARNING: GPT (GUID Partition Table) detected on '/dev/sda'! The util fdisk doesn't support GPT. Use GNU Parted.


Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x6fcb5480

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1  3907029167  1953514583+  ee  GPT

WARNING: GPT (GUID Partition Table) detected on '/dev/sdb'! The util fdisk doesn't support GPT. Use GNU Parted.


Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x2fbbf4b0

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1  3907029167  1953514583+  ee  GPT

Disk /dev/md0: 21.5 GB, 21474762752 bytes
2 heads, 4 sectors/track, 5242862 cylinders, total 41942896 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Disk /dev/md1: 3957.8 GB, 3957777760256 bytes
2 heads, 4 sectors/track, 966254336 cylinders, total 7730034688 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Disk identifier: 0x00000000

Disk /dev/md1 doesn't contain a valid partition table
Note: sector size is 4096 (not 512)

Disk /dev/sdc: 4000.8 GB, 4000752599040 bytes
255 heads, 63 sectors/track, 60799 cylinders, total 976746240 sectors
Units = sectors of 1 * 4096 = 4096 bytes
Sector size (logical/physical): 4096 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xdb4bf07b

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1             256   976746239  3906983936    7  HPFS/NTFS/exFAT
root@ix2b:/mnt/usb/iSCSI#

Saída do comando para parted:


Model: WDC WD20EFRX-68AX9N0 (scsi)
Disk /dev/sda: 2000GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number  Start   End     Size    File system  Name     Flags
 1      33.6MB  21.5GB  21.5GB               primary
 2      21.5GB  2000GB  1979GB               primary


Model: WDC WD20EFRX-68AX9N0 (scsi)
Disk /dev/sdb: 2000GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number  Start   End     Size    File system  Name     Flags
 1      33.6MB  21.5GB  21.5GB               primary
 2      21.5GB  2000GB  1979GB               primary


Model: WD My Book 1230 (scsi)
Disk /dev/sdc: 4001GB
Sector size (logical/physical): 4096B/4096B
Partition Table: msdos

Number  Start   End     Size    Type     File system  Flags
 1      1049kB  4001GB  4001GB  primary


Model: Linux device-mapper (linear) (dm)
Disk /dev/mapper/b9b358d_vg-lv3707c1c1: 3958GB
Sector size (logical/physical): 512B/512B
Partition Table: loop

Number  Start  End     Size    File system  Flags
 1      0.00B  3958GB  3958GB  ext4


Error: /dev/mtdblock0: unrecognised disk label

Error: /dev/mtdblock1: unrecognised disk label

Error: /dev/mtdblock2: unrecognised disk label

Error: /dev/mtdblock3: unrecognised disk label

Error: /dev/md0: unrecognised disk label

Error: /dev/md1: unrecognised disk label

Saída do comando para uname:


root@ix2b:/mnt/usb/iSCSI# uname -a
Linux ix2b 2.6.31.8 Tue Aug 30 10:28:13 EDT 2016 v0.0.9 Tue Aug 30 10:28:13 EDT 2016 armv5tel GNU/Linux

Saída do comando para lsblk:


root@ix2b:/mnt/usb/iSCSI# lsblk /dev/sd[bc] -o NAME,SIZE,TYPE,MAJ:MIN
NAME                                 SIZE TYPE  MAJ:MIN
sdb                                  1.8T disk    8:16
|-sdb1                                20G part    8:17
| `-md0                               20G raid1   9:0
`-sdb2                               1.8T part    8:18
  `-md1                              3.6T raid0   9:1
    `-b9b358d_vg-lv3707c1c1 (dm-0)   3.6T lvm   253:0
sdc                                  3.7T disk    8:32
`-sdc1                               1.7T part    8:33

Responder1

Aparentemente postei isso no site SO errado - o askubuntu aparentemente lidou muito mais com esse problema e encontrei algumas referências para estudar.

Então vou postar uma resposta inicial, mas não estou convencido se há muito mais nisso - se houver, comente aqui para ajudar outras pessoas!

  1. Inicialize o LiveCD em hardware mais recente com 2 unidades SATA conectadas às portas 0 e 1 e nova unidade de destino de dados conectada via SATA ou USB3

  2. Instale o mdadm:

    sudo apt-get install mdadm
    
  3. Verifique todas as unidades em busca de volumes RAID:

    sudo mdadm -Q /dev/sd[a-f][1-9]
    
  4. Tente digitalizar, montar e abrir no nautilus:

    sudo mdadm --assemble --scan
    
  5. CP/Rsync/TAR/etc seus dados do volume RAID para um novo destino de dados

    EDIT: Até agora a resposta que postei acima estava correta, mas este NAS configurou os discos/RAID LVM assim:

    root@ubuntu:~# sudo lsblk -f NOME FSTYPE LABEL UUID MOUNTPOINT sdb
    ├─sdb2 linux_rai ix2b:1 0b3fca64-f33a-21cc-45dc-6353be71366e
    │ └─md1 LVM2_memb 1f-tWYK-Iv3w-g24n-MylTHy └─sdb1 linux_rai ix2-dl-113:0 70d23f10-3d2b-9d15-4af5-7c4e11dda669
    └─md0
    sdc
    ├─sdc2 linux_rai ix2b:1 53be71366e
    │ └─md1 LVM2_memb HgGqsx-nrcC-MF1f -tWYK-Iv3w-g24n-MylTHy └─sdc1 linux_rai ix2-dl-113:0 70d23f10-3d2b-9d15-4af5-7c4e11dda669
    └─md0
    sda
    ├─sda2
    ├─sda5 troca d7fa7f1 0-c009-435c-8435-e0b4556a235b [TROCAR ] └─sda1 ext4 5e18f5b8-ff52-4f82-8a2a-24d687eb8413 /

EDITAR: juntei o restante das etapas e irei escrevê-las para adicioná-las aqui e também construir um guia para postar. Eu tenho todos os volumes RAID montados em uma máquina virtual USB3/SATA que provou funcionar muito bem e é uma boa abordagem na abordagem que outros parecem adotar ao tentar recuperar unidades NAS. Eu os montei via conversores SATA3 -> USB3 testados na VM em aproximadamente 120-150 MB/s seq x 2 para a faixa, muito mais rápido do que deixá-los no NAS! Fique atento!

informação relacionada