ZFS raidz3 en proxmox tiene problemas de IO

ZFS raidz3 en proxmox tiene problemas de IO

Estoy ejecutando Proxmox 6.2-11 con 256 GB de RAM ECC y el siguiente grupo raidz3:

pool: rpool
state: ONLINE
scan: scrub repaired 0B in 0 days 15:25:14 with 0 errors on Sun Jan 10 15:49:29 2021
config:

NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
raidz3-0 ONLINE 0 0 0
ata-HGST_HUS726T6TALE6L4_V8JDUHAR-part4 ONLINE 0 0 0
ata-HGST_HUS726T6TALE6L4_V8JDWWAR-part4 ONLINE 0 0 0
ata-HGST_HUS726T6TALE6L4_V8JB5AYR-part4 ONLINE 0 0 0
ata-HGST_HUS726T6TALE6L4_V8JBYYTR-part4 ONLINE 0 0 0
ata-ST6000NM0115-1YZ110_ZAD9MHXH-part4 ONLINE 0 0 0
ata-ST6000NM0115-1YZ110_ZAD9M248-part4 ONLINE 0 0 0
ata-ST6000NM0115-1YZ110_ZAD9MQ9E-part4 ONLINE 0 0 0
ata-ST6000NM0115-1YZ110_ZAD9MN5A-part4 ONLINE 0 0 0

errors: No known data errors


NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
rpool 43.6T 9.71T 33.9T - - 10% 22% 1.00x ONLINE -

En el host proxmox desde hace unas semanas siento un gran aumento en la espera de IO (2-3%), viendo que txg_sync alcanza un máximo de 95-99,99% de IO a través de iotop. En una de las instancias invitadas /Debian/ puedo ver que jdb2/vda1-8 vuelve a tener un 99,99% la mayor parte del tiempo.

Mucha RAM disponible tanto para el huésped como para el anfitrión. ¿Cuál puede ser el problema?

Respuesta1

Se actualizó a PVE 6.3 (ZFS 0.8.4 -> 0.8.6) y el problema desapareció por ahora.

información relacionada