Tengo una máquina que tuvo problemas con una RAM defectuosa. Después de diagnosticarlo y eliminar la memoria RAM infractora, el grupo ZFS de la máquina intentaba acceder a las unidades utilizando nombres de dispositivo incorrectos. Simplemente exporté el grupo y lo volví a importar para corregir esto. Sin embargo, ahora recibo este error.
El almacenamiento del grupo ya no se monta automáticamente
sqeaky@sqeaky-media-server:/$ sudo zpool status
no pools available
Una importación regular dice que es corrupta.
sqeaky@sqeaky-media-server:/$ sudo zpool import
pool: Storage
id: 13247750448079582452
state: UNAVAIL
status: The pool is formatted using an older on-disk version.
action: The pool cannot be imported due to damaged devices or data.
config:
Storage UNAVAIL insufficient replicas
raidz1 UNAVAIL corrupted data
805066522130738790 ONLINE
sdd3 ONLINE
sda3 ONLINE
sdc ONLINE
Una importación específica dice que la configuración de vdev no es válida
sqeaky@sqeaky-media-server:/$ sudo zpool import Storage
cannot import 'Storage': invalid vdev configuration
No se puede desconectar ni desconectar la unidad porque el grupo no se puede iniciar/importar
sqeaky@sqeaky-media-server:/$ sudo zpool offline Storage 805066522130738790
cannot open 'Storage': no such pool
sqeaky@sqeaky-media-server:/$ sudo zpool detach Storage 805066522130738790
cannot open 'Storage': no such pool
No se puede forzar la importación
sqeaky@sqeaky-media-server:/$ sudo zpool import -f Storage
cannot import 'Storage': invalid vdev configuration
Debería tener 4 dispositivos en mi grupo ZFS:
/dev/sda3
/dev/sdd3
/dev/sdc
/dev/sdb
No tengo idea de qué es 805066522130738790 pero planeo investigar más a fondo. También estoy tratando de descubrir cómo usar zdb para obtener más información sobre lo que el grupo cree que está sucediendo.
Como referencia, esto se configuró de esta manera, porque en el momento en que se configuró esta máquina/grupo necesitaba ciertas características de Linux y el arranque desde ZFS aún no era compatible con Linux. Las particiones sda1 y sdd1 están en un raid 1 para el sistema operativo y sdd2 y sda2 están en un raid1 para el swap.
¿Alguna pista sobre cómo recuperar este grupo ZFS?
Editar - Actualización de estado Descubrí qué es 805066522130738790. Es alguna guía que ZFS no estaba utilizando para identificar /dev/sdb. Cuando elimino físicamente /dev/sdb, el grupo se monta y se conecta. Pero todavía no puedo cambiar los discos. Supongo que haré una copia de seguridad de los archivos en un medio externo y luego eliminaré todo el grupo porque está demasiado corrupto para seguir funcionando. Debería haber tenido buenas copias de seguridad desde el principio...
Respuesta1
¿Parece que estás usando ZFS en FUSE? De todos modos, no esperaría que eso fuera estable.
Desconecté el disco extraño, luego lo volví a agregar y veré si eso ayuda. También puede intentar forzar la reimportación del grupo. http://docs.huihoo.com/opensolaris/solaris-zfs-administration-guide/html/ch04s04.html
Respuesta2
Vaya a la lista zfs-discuss si desea ayuda real para la depuración:
http://mail.opensolaris.org/mailman/listinfo/zfs-discuss http://opensolaris.org/jive/forum.jspa?forumID=80
(La misma lista, solo diferentes interfaces).