Benutzer hat nicht genügend Ressourcen - Centos

Benutzer hat nicht genügend Ressourcen - Centos

Meine CentOS-Box verhält sich seit einiger Zeit merkwürdig. Das SSH-Protokoll zeigt:

pam_unix(sshd:session): session opened for user trading by (uid=0)
fatal: setresuid 502: Resource temporarily unavailable

Und in meinem Cron-Log (für denselben Benutzer) erhalte ich Fehler

(CRON) ERROR (setreuid failed): Resource temporarily unavailable

Führen Sie als dieser Benutzer „ulimit -a“ aus:

core file size          (blocks, -c) 0
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 773824
max locked memory       (kbytes, -l) 64
max memory size         (kbytes, -m) unlimited
open files                      (-n) 2048
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 10240
cpu time               (seconds, -t) unlimited
max user processes              (-u) 1024
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited

und limits.d 90-nproc.conf hat:

*          soft    nproc     1024
root       soft    nproc     unlimited

Aber dieser Benutzer scheint nie mehr als ~20 Prozesse zu erhalten ps -eo user=|sort|uniq -c, wenn ich verwende. Allerdings habe ich die Anzahl der Prozesse zum genauen Zeitpunkt des Fehlers nicht überprüft.

Wir haben eine kleine Anzahl von Java-Diensten auf dieser Box, die vom selben Benutzer ausgeführt werden. Aber es scheinen ihm die Prozesse auszugehen? Wir haben auch Postgres darauf, aber das wird als anderer Benutzer ausgeführt.

Irgendwelche Tipps? Gehen mir die Prozesse aufgrund der 1024-Grenze aus (bei Fehlern muss es voll ausgelastet sein?), oder erreiche ich eine andere Ressourcengrenze.

Außerdem, wenn ich sehe /proc/{myprocid}/limits:

Limit                     Soft Limit           Hard Limit           Units
Max cpu time              unlimited            unlimited            seconds
Max file size             unlimited            unlimited            bytes
Max data size             unlimited            unlimited            bytes
Max stack size            10485760             unlimited            bytes
Max core file size        0                    unlimited            bytes
Max resident set          unlimited            unlimited            bytes
Max processes             1024                 773824               processes
Max open files            100000               100000               files
Max locked memory         65536                65536                bytes
Max address space         unlimited            unlimited            bytes
Max file locks            unlimited            unlimited            locks
Max pending signals       773824               773824               signals
Max msgqueue size         819200               819200               bytes
Max nice priority         0                    0
Max realtime priority     0                    0
Max realtime timeout      unlimited            unlimited            us

Warum hat ein Prozess eine maximale Anzahl an Prozessen?

Antwort1

Es scheint, dass die Einstellung in 90-nproc.conf dazu dient, Fork-Bomben zu verhindern – zumindest steht das in den Kommentaren in meiner Kopie dieser Datei.

Sehen Sie sich /etc/ssh/sshd_config an, insbesondere den Wert von „MaxStartUps“. Versuchen Sie, diesen auf 1000 zu erhöhen. Wenn das keinen Unterschied macht, warum erhöhen Sie dann nicht den Wert für die maximalen Benutzerprozesse in /etc/security/limits.conf? Auf den Servern, die ich verwalte, ist dieser auf 65535 eingestellt.

verwandte Informationen