Приведет ли 100% загрузка ЦП или 100% памяти к нестабильности работы Linux-сервера?

Приведет ли 100% загрузка ЦП или 100% памяти к нестабильности работы Linux-сервера?

Будет ли 100% загрузка ЦП или 100% памяти делать сервер Linux более нестабильным? Так, что он зависнет и потребуется перезагрузка.

Потому что я слышал, что:

«Если вы ограничиваете процесс 90% ЦП, то вы тратите 10% вычислительной мощности впустую»

против

«Пожалуйста, ограничьте загрузку ЦП для вашего процесса уровнем ниже 90%, иначе система станет нестабильной»

Какое из утверждений верно? Разве ОС Linux не должна обрабатывать случаи высокой загрузки?

Я понимаю, что на клиентской машине я, вероятно, не хочу 100% использования ЦП, так как это замедляет входы, команды cli и все интерактивное. Но на сервере, действующем какрабочий узел, загрузка ЦП должна быть 100% или быть ограничена ниже 100%? Тот же вопрос для MEM.

решение1

Сервер с 100% загрузкой ЦП не будет очень отзывчивым на новые задачи и может быть медленным при интерактивном использовании, но должен продолжать работать. Рабочие узлы, выполняющие интенсивные задачи ЦП на уровне или около 100%, это нормально. Настольный ПК — не очень.

Сервер, заполненный на 100% памяти, либо начнет завершать задачи, либо выйдет из строя.

решение2

Это вопрос со сложным ответом.

Короткий ответ: нет, высокая загрузка ресурсов сама по себе не приведет к нестабильной работе сервера или его сбою. НО...

Длинный ответ: это зависит от обстоятельств. Высокая загрузка ЦП может, например, привести к плохому времени отклика, конфликтам ресурсов и усугублению проблем, когда запросы выстраиваются в очередь быстрее, чем сервер может их обработать. Это фактически сделает сервер нестабильным.

Приоритет процесса также играет здесь важную роль. Задачи с более высоким приоритетом получают преимущество в использовании процессорного времени, что может привести к тому, что задачи с более низким приоритетом будут испытывать нехватку ресурсов, что сделает систему нестабильной.

С другой стороны, задача, интенсивно использующая ЦП, которая намеренно установлена ​​с низким приоритетом, может использовать любой из простаивающих ЦП, не влияя заметно на производительность системы. Такие программы, как Folding@Home, используют это для работы в фоновом режиме, не влияя на остальную часть системы.

Высокая загрузка памяти может привести к подкачке, что еще больше снижает производительность сервера и может фактически сделать его нестабильным.

Высокое использование памяти также может привести к проблемам Out Of Memory, которые могут привести к завершению процессов. Это определенно сделает сервер нестабильным и склонным к сбоям.

Все зависит от того, что должен делать сервер. Веб-сервер при такой высокой загрузке, скорее всего, будет рисковать быть непригодным к использованию, но сервер кодирования видео будет работать отлично.

А еще есть вопросы энергопотребления, тепловыделения, охлаждающей способности и так далее...

решение3

Это полностью зависит от того, что делают эти серверы.

Вот история. Окна, но тем не менее то же самое.

У меня есть программный агент, который будет использовать сервер на 100% CPU. ТОЧКА. Независимо от того, насколько он большой. Это агент моделирования статистики, который берет задания с сервера - ОДНО НА ЯДРО - и запускает их. С низким приоритетом, с потоком управления с более высоким приоритетом, который следит за тем, чтобы все они были заняты.

100% проблема ЦП? НЕТ. Это то, что планируется сделать.

С другой стороны, сервер базы данных с управлением памятью SMART будет использовать как можно больше памяти для кэширования и освобождать память по мере необходимости. Опять же, это не проблема.

Связанный контент