Tengo un grupo en el que hay 3,41 TB de datos, la deduplicación está habilitada en los volúmenes, a juzgar por el resultado del
zpool status -D <pool_name>
...
dedup: DDT entries 73665285, size 696B on disk, 154B in core
...
Veo que solo se almacenan 10 GB de DDT en la RAM y, si cargo más datos, la cantidad de bloques aumentará y los bytes disminuirán. por Hasta donde yo sé, el DDT se almacena en los metadatos del ARC, y al generararc_meta_used, solo veo alrededor de 8 GB allí, el límite para la cantidad de metadatos (zfs_arc_meta_limit_percent) en el ARC está fijado al 75%, es decir, ni siquiera lo alcanza todavía, la cantidad de RAM = 64GB. ¿Por qué no se descarga toda la tabla de deduplicación en la RAM?
según este resultado mi tamaño de DDT es 37,19GB
zdb -b pool
bp count: 124780196
ganged count: 0
bp logical: 3997925134336 avg: 32039
bp physical: 3988307198976 avg: 31962 compression: 1.00
bp allocated: 6056878956544 avg: 48540 compression: 0.66
bp deduped: 2188370706432 ref>1: 15910160 deduplication: 1.36
SPA allocated: 3868508110848 used: 25.36%
additional, non-pointer bps of type 0: 95
Dittoed blocks on same vdev: 3706666
¿Por qué la tabla no está paginada en la RAM? ¿Y cómo descargarlo a la fuerza?