
Я хотел бы ограничить контейнер до 25% от общей пропускной способности ЦП системы.
Вот моя настройка:
- LXC версия 1.0.2
- ядро 3.2.45
- один пользователь создал cgroup (foo) для контейнера LXC
- 40 доступных ядер на хосте
- хост и контейнер имеют значения по умолчанию для каждой другой подсистемы cgroup, за исключением:
/sys/fs/cgroup/cpu/lxc/foo/cpu.cfs_quota_us = 400000
/sys/fs/cgroup/cpu/lxc/foo/cpu.cfs_period_us = 100000
/sys/fs/cgroup/cpuset/lxc/foo/cpuset.cpus = 0-15
Я рассчитал квоту по следующей формуле:
(# of cpus available to container) * (cpu.cfs_period_us) * (.25) so 16 * 100000 * .25 = 400000
Я запустил базовый стресс-ng внутри и снаружи контейнера одновременно, чтобы получить представление о том, сколько операций в секунду разрешено внутри и снаружи, и результаты были в основном такими же, как и при запуске с квотой «-1», то есть без квоты.
Внешний забег:
$ ./stress-ng --cpu-load 50 -c 40 --timeout 20s --metrics-brief
stress-ng: info: [25649] dispatching hogs: 40 cpu
stress-ng: info: [25649] successful run completed in 20.44s
stress-ng: info: [25649] stressor bogo ops real time usr time sys time bogo ops/s bogo ops/s
stress-ng: info: [25649] (secs) (secs) (secs) (real time) (usr+sys time)
stress-ng: info: [25649] cpu 37348 20.18 380.56 0.58 1850.85 97.99
Внутренний забег:
$ ./stress-ng --cpu-load 100 -c 16 --timeout 20s --metrics-brief
stress-ng: info: [34256] dispatching hogs: 16 cpu
stress-ng: info: [34256] successful run completed in 20.10s
stress-ng: info: [34256] stressor bogo ops real time usr time sys time bogo ops/s bogo ops/s
stress-ng: info: [34256] (secs) (secs) (secs) (real time) (usr+sys time)
stress-ng: info: [34256] cpu 24147 20.03 205.20 0.17 1205.67 117.58
На основе ops/s я получаю 39%. Почему это происходит? Разве это не должно быть ограничено cpu.cfs_quota_us
?
Спасибо за помощь в продвижении.
решение1
Хотел опубликовать ответ на этот вопрос на случай, если кто-то еще увидит похожий запутанный результат. Похоже, у меня было две проблемы:
Для оценки пропускной способности ЦП необходимо использовать число ЦП на хосте, а не число доступных ЦП в cgroups cpuset:
(# of cpus on the host) * (cpu.cfs_period_us) * (.25) so 40 * 100000 * .25 = 1000000
Мой запуск stress-ng внутри контейнера использовал контроллеры cpu и cpuset группы /lxc/foo, тогда как запуск stress-ng вне контейнера использовал группу /system/sshd.service.
Чтобы лучше смоделировать мое реальное приложение, мне следовало бы указать, какие контроллеры использовать, используяcgexec:
$ cgexec -g cpuset:/lxc/foo -g cpu:/lxc/foo ./stress-ng --cpu-load 100 -c 48 --times --timeout 10s --metrics-brief
stress-ng: info: [6252] dispatching hogs: 48 cpu
stress-ng: info: [6252] successful run completed in 10.36s
stress-ng: info: [6252] stressor bogo ops real time usr time sys time bogo ops/s bogo ops/s
stress-ng: info: [6252] (secs) (secs) (secs) (real time) (usr+sys time)
stress-ng: info: [6252] cpu 11152 10.09 102.83 0.12 1105.60 108.32
stress-ng: info: [6252] for a 10.36s run time:
stress-ng: info: [6252] 414.46s available CPU time
stress-ng: info: [6252] 102.85s user time ( 24.82%)
stress-ng: info: [6252] 0.12s system time ( 0.03%)
stress-ng: info: [6252] 102.97s total time ( 24.84%)