Будет ли 100% загрузка ЦП или 100% памяти делать сервер Linux более нестабильным? Так, что он зависнет и потребуется перезагрузка.
Потому что я слышал, что:
«Если вы ограничиваете процесс 90% ЦП, то вы тратите 10% вычислительной мощности впустую»
против
«Пожалуйста, ограничьте загрузку ЦП для вашего процесса уровнем ниже 90%, иначе система станет нестабильной»
Какое из утверждений верно? Разве ОС Linux не должна обрабатывать случаи высокой загрузки?
Я понимаю, что на клиентской машине я, вероятно, не хочу 100% использования ЦП, так как это замедляет входы, команды cli и все интерактивное. Но на сервере, действующем какрабочий узел, загрузка ЦП должна быть 100% или быть ограничена ниже 100%? Тот же вопрос для MEM.
решение1
Сервер с 100% загрузкой ЦП не будет очень отзывчивым на новые задачи и может быть медленным при интерактивном использовании, но должен продолжать работать. Рабочие узлы, выполняющие интенсивные задачи ЦП на уровне или около 100%, это нормально. Настольный ПК — не очень.
Сервер, заполненный на 100% памяти, либо начнет завершать задачи, либо выйдет из строя.
решение2
Это вопрос со сложным ответом.
Короткий ответ: нет, высокая загрузка ресурсов сама по себе не приведет к нестабильной работе сервера или его сбою. НО...
Длинный ответ: это зависит от обстоятельств. Высокая загрузка ЦП может, например, привести к плохому времени отклика, конфликтам ресурсов и усугублению проблем, когда запросы выстраиваются в очередь быстрее, чем сервер может их обработать. Это фактически сделает сервер нестабильным.
Приоритет процесса также играет здесь важную роль. Задачи с более высоким приоритетом получают преимущество в использовании процессорного времени, что может привести к тому, что задачи с более низким приоритетом будут испытывать нехватку ресурсов, что сделает систему нестабильной.
С другой стороны, задача, интенсивно использующая ЦП, которая намеренно установлена с низким приоритетом, может использовать любой из простаивающих ЦП, не влияя заметно на производительность системы. Такие программы, как Folding@Home, используют это для работы в фоновом режиме, не влияя на остальную часть системы.
Высокая загрузка памяти может привести к подкачке, что еще больше снижает производительность сервера и может фактически сделать его нестабильным.
Высокое использование памяти также может привести к проблемам Out Of Memory, которые могут привести к завершению процессов. Это определенно сделает сервер нестабильным и склонным к сбоям.
Все зависит от того, что должен делать сервер. Веб-сервер при такой высокой загрузке, скорее всего, будет рисковать быть непригодным к использованию, но сервер кодирования видео будет работать отлично.
А еще есть вопросы энергопотребления, тепловыделения, охлаждающей способности и так далее...
решение3
Это полностью зависит от того, что делают эти серверы.
Вот история. Окна, но тем не менее то же самое.
У меня есть программный агент, который будет использовать сервер на 100% CPU. ТОЧКА. Независимо от того, насколько он большой. Это агент моделирования статистики, который берет задания с сервера - ОДНО НА ЯДРО - и запускает их. С низким приоритетом, с потоком управления с более высоким приоритетом, который следит за тем, чтобы все они были заняты.
100% проблема ЦП? НЕТ. Это то, что планируется сделать.
С другой стороны, сервер базы данных с управлением памятью SMART будет использовать как можно больше памяти для кэширования и освобождать память по мере необходимости. Опять же, это не проблема.