
En un sistema Solaris 11.4 tenía un grupo ZFS que ocupaba tres unidades. Mientras el sistema estaba apagado, estas tres unidades se eliminaron físicamente, pero ninguna zpool export
de ellas zpool destroy
se había ejecutado, por lo que en principio el sistema esperaba que el grupo todavía existiera. Este grupo no es deseado.
Ahora, cada vez que inicio sesión, me aparece un mensaje:
NOTE: system has 3 active faults; run 'fmadm list' for details.
Cuando hago eso, obtengo muchas páginas de información sobre los discos extraídos, con gravedad Major
, ID de mensajes de ZFS-8000-CS
y ZFS-8000-PE
, estado del problema de isolated
, clase de problema de fault.fs.zfs.pool
y fault.fs.zfs.no_replicas
, estado faulted and taken out of service
y estado de FRU de faulty/not present
.
Esto en sí mismo tiene sentido, pero un aspecto confuso es que, si bien Fault Manager es consciente del "problema", ZFS no. ZFS parece no tener ningún concepto sobre el grupo que falta. Cuando corro, zpool list
solo veo rpool
(no hay otros grupos). Lo mismo con zpool status
y zdb
; ambos enumeran solo los que están en buen estado rpool
, no dan errores, fallas o degradación, y no mencionan en absoluto el grupo con fallas. Si lo intento zpool status badpool
, obtengo:
cannot open 'badpool': no such pool
Como no quiero este grupo, lo intenté zpool destroy badpool
, pero esto también obtiene:
cannot open 'badpool': no such pool
-f
no ayuda, como era de esperar, emite el mismo mensaje.
No sé qué llevó al sistema a este estado en el que ZFS no tiene concepto del grupo mientras Fault Manager todavía se queja de ello. Es posible que alguien ya haya ejecutado comandos ZFS para destruirlo después de desconectarlo.
He hojeado la página de manual de fmadm
"Administración de fallas, defectos y alertas en Oracle® Solaris 11.4", pero la interfaz parece tener un gran agujero: espera que usted "repare", "reemplace" o "absolver" los dispositivos. , pero no se menciona en absoluto qué hacersi ya no desea el dispositivo o el servicio que proporciona.
Entonces mis preguntas son:
¿Por qué es posible que Fault Manager todavía recuerde un grupo que ZFS parece haber olvidado? Y,
¿Cómo puedo hacer que Fault Manager lo olvide?
El resultado de zpool status
, sin complicaciones aparte de la omisión del grupo que falta, es:
pool: rpool
id: 3268360325047915522
state: ONLINE
scan: scrub repaired 0 in 54s with 0 errors on Tue Sep 19 20:05:51 2023
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
c2t0d0 ONLINE 0 0 0
errors: No known data errors