почему zfs на linux сообщает неверные скорости передачи после расширения массива?

почему zfs на linux сообщает неверные скорости передачи после расширения массива?

Я обновил диски в массиве Raidz из 4 дисков на сервере NAS, и массив автоматически расширился до нового размера. При тестировании скорости передачи данных с сервера NAS я заметил, что при выполнении больших передач чтения производительность низкая, с трудом поднимается выше 10 МБ/с, хотя iotop и zpool iostat могут сообщать очень высокие цифры до 500 МБ/с. Что может быть причиной этого странного поведения? Поскольку я обновлял массив, я также заметил, что он работает одинаково, независимо от того, подключено ли 4 устройства или деградировал до 3.

Сервер подключен к одному гигабитному сетевому соединению и может заполнить его одним диском с использованием ext4.

решение1

Я обнаружил, что, экспериментируя с настройками кэша, чтобы посмотреть, что произойдет, я оставил первичный кэш отключенным, что может привести к тому, что реальный ввод-вывод будет намного больше логического ввода-вывода из-за

[приложение] считывает файл, получает 4 КБ (размер страницы?) данных и обрабатывает их, затем считывает следующие 4 КБ и т. д.

Однако ZFS не может читать только 4k. По умолчанию она читает 128k (размер записи). Поскольку кэша нет (вы его отключили), остальные данные отбрасываются.

128к/4к = 32

32 x 2,44 ГБ = 78,08 ГБ

отФорумы FreeBSD

Связанный контент