Почему cpu.cfs_quota_us не ограничивает пропускную способность ЦП контейнера LXC?

Почему cpu.cfs_quota_us не ограничивает пропускную способность ЦП контейнера LXC?

Я хотел бы ограничить контейнер до 25% от общей пропускной способности ЦП системы.
Вот моя настройка:

  • LXC версия 1.0.2
  • ядро 3.2.45
  • один пользователь создал cgroup (foo) для контейнера LXC
  • 40 доступных ядер на хосте
  • хост и контейнер имеют значения по умолчанию для каждой другой подсистемы cgroup, за исключением:
  • /sys/fs/cgroup/cpu/lxc/foo/cpu.cfs_quota_us = 400000
  • /sys/fs/cgroup/cpu/lxc/foo/cpu.cfs_period_us = 100000
  • /sys/fs/cgroup/cpuset/lxc/foo/cpuset.cpus = 0-15

Я рассчитал квоту по следующей формуле:

(# of cpus available to container) * (cpu.cfs_period_us) * (.25) so 16 * 100000 * .25 = 400000

Я запустил базовый стресс-ng внутри и снаружи контейнера одновременно, чтобы получить представление о том, сколько операций в секунду разрешено внутри и снаружи, и результаты были в основном такими же, как и при запуске с квотой «-1», то есть без квоты.

Внешний забег:

$ ./stress-ng  --cpu-load 50 -c 40 --timeout 20s --metrics-brief
stress-ng: info: [25649] dispatching hogs: 40 cpu  
stress-ng: info: [25649] successful run completed in 20.44s  
stress-ng: info: [25649] stressor      bogo ops real time  usr time  sys time   bogo ops/s   bogo ops/s  
stress-ng: info: [25649]                          (secs)    (secs)    (secs)   (real time) (usr+sys time)  
stress-ng: info: [25649] cpu              37348     20.18    380.56      0.58      1850.85        97.99  

Внутренний забег:

$ ./stress-ng --cpu-load 100 -c 16 --timeout 20s --metrics-brief  
stress-ng: info: [34256] dispatching hogs: 16 cpu  
stress-ng: info: [34256] successful run completed in 20.10s  
stress-ng: info: [34256] stressor      bogo ops real time  usr time  sys time   bogo ops/s   bogo ops/s  
stress-ng: info: [34256]                          (secs)    (secs)    (secs)   (real time) (usr+sys time)  
stress-ng: info: [34256] cpu              24147     20.03    205.20      0.17      1205.67       117.58  

На основе ops/s я получаю 39%. Почему это происходит? Разве это не должно быть ограничено cpu.cfs_quota_us?

Спасибо за помощь в продвижении.

решение1

Хотел опубликовать ответ на этот вопрос на случай, если кто-то еще увидит похожий запутанный результат. Похоже, у меня было две проблемы:

  • Для оценки пропускной способности ЦП необходимо использовать число ЦП на хосте, а не число доступных ЦП в cgroups cpuset:

    (# of cpus on the host) * (cpu.cfs_period_us) * (.25) so 40 * 100000 * .25 = 1000000

  • Мой запуск stress-ng внутри контейнера использовал контроллеры cpu и cpuset группы /lxc/foo, тогда как запуск stress-ng вне контейнера использовал группу /system/sshd.service.

Чтобы лучше смоделировать мое реальное приложение, мне следовало бы указать, какие контроллеры использовать, используяcgexec:

$ cgexec -g cpuset:/lxc/foo -g cpu:/lxc/foo ./stress-ng --cpu-load 100 -c 48 --times --timeout 10s --metrics-brief  
stress-ng: info: [6252] dispatching hogs: 48 cpu  
stress-ng: info: [6252] successful run completed in 10.36s  
stress-ng: info: [6252] stressor      bogo ops real time  usr time  sys time   bogo ops/s   bogo ops/s  
stress-ng: info: [6252]                          (secs)    (secs)    (secs)   (real time) (usr+sys time)  
stress-ng: info: [6252] cpu              11152     10.09    102.83      0.12      1105.60       108.32  
stress-ng: info: [6252] for a 10.36s run time:  
stress-ng: info: [6252]     414.46s available CPU time  
stress-ng: info: [6252]     102.85s user time   ( 24.82%)  
stress-ng: info: [6252]       0.12s system time (  0.03%)  
stress-ng: info: [6252]     102.97s total time  ( 24.84%)  

Связанный контент