![Copia de seguridad y restauración de datos del grupo ZFS](https://rvso.com/image/768917/Copia%20de%20seguridad%20y%20restauraci%C3%B3n%20de%20datos%20del%20grupo%20ZFS.png)
Actualmente tengo un grupo zfs raidz2 atrapado en un bucle de recuperación mientras intentaba reemplazar los discos de 3 TB por discos de 8 TB. Después de dejar que el primer disco de reemplazo volviera a funcionar en línea durante más de una semana, finalmente terminó solo para comenzar de nuevo inmediatamente. Después de marcar el disco como "FUERA DE CONEXIÓN", la segunda recuperación se completó en aproximadamente 2 días. Marqué el disco en línea y todo se veía bien (durante un par de minutos), así que reemplacé el segundo disco. Una vez que comenzó la restauración del segundo disco, mostró que el primer disco también se estaba recuperando nuevamente. Ahora estoy en mi tercer o cuarto ciclo de restauración de estas dos unidades y, con dos discos, no tengo tolerancia a fallos. En este punto, me gustaría hacer una copia de seguridad de zpool en un recurso compartido nfs y recrearlo con las nuevas unidades, pero no quiero perder toda la configuración de mi conjunto de datos, que incluye todas mis cárceles. ¿Hay alguna manera de exportar todo el zpool como una imagen de respaldo que de alguna manera pueda restaurarse? El sistema de archivos de la otra máquina con suficiente espacio en disco para almacenar todos estos datos ya tiene un sistema de archivos diferente en uso, por lo que la replicación zfs probablemente no sea una opción. Esta es una instalación TrueNAS-12.0-U4. La máquina de respaldo ejecuta Ubuntu 21.04 con LVM/Ext4. A continuación se muestra el estado actual del grupo.
pool: pool0
state: DEGRADED
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Thu Jul 29 00:39:12 2021
13.8T scanned at 273M/s, 13.0T issued at 256M/s, 13.8T total
2.17G resilvered, 93.77% done, 00:58:48 to go
config:
NAME STATE READ WRITE CKSUM
pool0 DEGRADED 0 0 0
raidz2-0 DEGRADED 0 0 0
gptid/55bf3ad6-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
gptid/55c837e3-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
gptid/55f4786c-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
gptid/60dcf0b8-eef3-11eb-92f9-3cecef030ab8 OFFLINE 0 0 0 (resilvering)
gptid/56702d96-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
gptid/5685b5f7-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
gptid/8f041954-eef3-11eb-92f9-3cecef030ab8 OFFLINE 0 0 0 (resilvering)
gptid/56920c3a-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
cache
gptid/56256b6a-3747-11eb-a0da-3cecef030ab8 ONLINE 0 0 0
errors: No known data errors
Respuesta1
Puede utilizarlo zfs snapshot -r pool0@backup; zfs send -R pool0@backup > zfs.img
para crear una secuencia de envío replicada que puede restaurar con zfs recv
.
Dicho esto, parece similar al problema descrito.aquí
También puedes intentar desactivar la resilver diferida a través del zfs_resilver_disable_defer
sintonizable.