¡Haga una copia de seguridad de su piscina!

¡Haga una copia de seguridad de su piscina!

Estoy usando FreeNas 11.2 U5.

Un disco configurado como Raidz-2 resultó dañado y se instaló un disco nuevo para reemplazarlo.

Sin embargo, por error, Volume Manager creó un nuevo disco stripe.

Entonces, hay...

  1. Un volumen Raidz2 dañado con un disco (originalmente 4 discos)
  2. Se crea un volumen Stripe de un solo disco.
[jehos@freenas ~]$ sudo zpool status
  pool: MAIN
 state: DEGRADED
status: One or more devices has been taken offline by the administrator.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Online the device using 'zpool online' or replace the device with
        'zpool replace'.
  scan: scrub repaired 0 in 0 days 06:48:21 with 0 errors on Sun Jun 16 06:48:24 2019
config:

        NAME                                            STATE     READ WRITE CKSUM
        MAIN                                            DEGRADED     0     0     0
          raidz2-0                                      DEGRADED     0     0     0
            gptid/3cbffd2d-e366-11e3-a67c-c8cbb8c95fc0  ONLINE       0     0     0
            gptid/3d98c268-e366-11e3-a67c-c8cbb8c95fc0  ONLINE       0     0     0
            16493801384591910209                        OFFLINE      0     0     0  was /dev/gptid/05be9493-e148-11e5-8ff4-c8cbb8c95fc0
            gptid/3f43ab6c-e366-11e3-a67c-c8cbb8c95fc0  ONLINE       0     0     0
          gptid/4fb8093c-ae3d-11e9-bbd1-c8cbb8c95fc0    ONLINE       0     0     0

Intenté eliminar el volumen de Stripes, pero fallé.

$ sudo zpool detach MAIN gptid/4fb8093c-ae3d-11e9-bbd1-c8cbb8c95fc0
cannot dettach gptid/4fb8093c-ae3d-11ebd1-c8cb8c95fc0: only applicable to mirror and refitting vdevs

Si fuerzo una banda para eliminar un disco configurado, es posible que todo el grupo se rompa.

¿Cómo elimino de forma segura solo el volumen de franja creado accidentalmente?

Respuesta1

¡Haga una copia de seguridad de su piscina!

Está a punto de perder datos y cualquier otro percance podría acercarlo aún más a la pérdida de datos o llevarlo al borde del abismo.

Puedes probar:

zpool remove -n MAIN gptid/4fb8093c-ae3d-11e9-bbd1-c8cbb8c95fc0

pero no creo que eso funcione. La -nopción indica zpoolsimplemente delinear el resultado de lo que se haría, pero en realidad no lo haga.

-n En realidad no realiza la eliminación ("no-op"). En su lugar, imprima la cantidad estimada de memoria
        que utilizará la tabla de asignación una vez completada la eliminación. Esto es distinto de cero sólo para
        vdevs de nivel superior.

Si parece que estaría permitido, inténtalo de nuevo sin el archivo -n.

Desafortunadamente, sospecho que necesitará hacer una copia de seguridad de todo su grupo, luego destruirlo, volver a crearlo y restaurarlo desde la copia de seguridad. En general, no es posible eliminar VDEV de un grupo ZFS sin destruir el grupo y volver a crearlo.

información relacionada