Faça backup da sua piscina!

Faça backup da sua piscina!

Estou usando o FreeNas 11.2 U5.

Um disco configurado como Raidz-2 foi danificado e um novo disco foi instalado para substituí-lo.

No entanto, por engano, o Volume Manager criou um novo disco de distribuição.

Então, existem...

  1. Um volume Raidz2 danificado com um disco (originalmente 4 discos)
  2. um volume Stripe de disco único criado.
[jehos@freenas ~]$ sudo zpool status
  pool: MAIN
 state: DEGRADED
status: One or more devices has been taken offline by the administrator.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Online the device using 'zpool online' or replace the device with
        'zpool replace'.
  scan: scrub repaired 0 in 0 days 06:48:21 with 0 errors on Sun Jun 16 06:48:24 2019
config:

        NAME                                            STATE     READ WRITE CKSUM
        MAIN                                            DEGRADED     0     0     0
          raidz2-0                                      DEGRADED     0     0     0
            gptid/3cbffd2d-e366-11e3-a67c-c8cbb8c95fc0  ONLINE       0     0     0
            gptid/3d98c268-e366-11e3-a67c-c8cbb8c95fc0  ONLINE       0     0     0
            16493801384591910209                        OFFLINE      0     0     0  was /dev/gptid/05be9493-e148-11e5-8ff4-c8cbb8c95fc0
            gptid/3f43ab6c-e366-11e3-a67c-c8cbb8c95fc0  ONLINE       0     0     0
          gptid/4fb8093c-ae3d-11e9-bbd1-c8cbb8c95fc0    ONLINE       0     0     0

Tento remover o volume do Stripes, mas não consigo.

$ sudo zpool detach MAIN gptid/4fb8093c-ae3d-11e9-bbd1-c8cbb8c95fc0
cannot dettach gptid/4fb8093c-ae3d-11ebd1-c8cb8c95fc0: only applicable to mirror and refitting vdevs

Se eu forçar uma faixa para remover um disco configurado, todo o pool poderá ser quebrado.

Como removo com segurança apenas o volume de distribuição criado acidentalmente?

Responder1

Faça backup da sua piscina!

Você está perto de perder dados e quaisquer contratempos futuros podem colocá-lo ainda mais perto da perda de dados ou levá-lo ao limite.

Podes tentar:

zpool remove -n MAIN gptid/4fb8093c-ae3d-11e9-bbd1-c8cbb8c95fc0

mas não acho que isso vá funcionar. A -nopção diz zpoolpara apenas delinear o resultado do que seria feito, mas não fazer isso de fato.

-n Na verdade, não execute a remoção ("no-op"). Em vez disso, imprima a quantidade estimada de memória
        que será usada pela tabela de mapeamento após a conclusão da remoção. Isso é diferente de zero apenas para
        vdevs de nível superior.

Se parecer que seria permitido, tente novamente sem o -n.

Infelizmente, suspeito que você precisará fazer backup de todo o pool, depois destruir o pool, recriá-lo e restaurá-lo a partir do backup. Em geral, não é possível remover VDEVs de um pool ZFS sem destruir o pool e recriá-lo.

informação relacionada