
Это немного маловероятно, но в настоящее время мы испытываем некоторые проблемы с одним из наших Dockerized Java-приложений:вопрос Stackoverlow
Мы установили ограничение памяти Docker на 2 ГБ, что намного превышает то, что Java-приложение может когда-либо использовать, поэтому я действительно ищу любую возможную причину этой проблемы.
Возможно ли, что во время дефрагментации/уплотнения памяти система сообщает о более высоком использовании памяти для приложения, для которого она выполняет эти операции (в выделенной ей памяти), и таким образом запускает функцию OOM killer в Docker?
Еще немного информации об одном из серверов EC2
cat /proc/pagetypeinfo
Page block order: 9
Pages per block: 512
Free pages count per migrate type at order 0 1 2 3 4 5 6 7 8 9 10
Node 0, zone DMA, type Unmovable 1 0 0 1 2 1 1 0 1 0 0
Node 0, zone DMA, type Movable 0 0 0 0 0 0 0 0 0 1 3
Node 0, zone DMA, type Reclaimable 0 0 0 0 0 0 0 0 0 0 0
Node 0, zone DMA, type HighAtomic 0 0 0 0 0 0 0 0 0 0 0
Node 0, zone DMA, type Isolate 0 0 0 0 0 0 0 0 0 0 0
Node 0, zone DMA32, type Unmovable 2160 1450 509 358 72 0 0 0 0 0 0
Node 0, zone DMA32, type Movable 39753 18110 3832 317 88 18 2 0 0 0 0
Node 0, zone DMA32, type Reclaimable 479 970 7 6 3 0 1 0 0 0 0
Node 0, zone DMA32, type HighAtomic 0 0 0 0 0 0 0 0 0 0 0
Node 0, zone DMA32, type Isolate 0 0 0 0 0 0 0 0 0 0 0
Node 0, zone Normal, type Unmovable 72 410 350 0 0 0 0 0 0 0 0
Node 0, zone Normal, type Movable 132228 61046 1635 0 0 0 0 0 0 0 0
Node 0, zone Normal, type Reclaimable 0 2 7 1 0 0 0 0 0 0 0
Node 0, zone Normal, type HighAtomic 2 0 15 11 7 2 0 0 0 0 0
Node 0, zone Normal, type Isolate 0 0 0 0 0 0 0 0 0 0 0
Number of blocks type Unmovable Movable Reclaimable HighAtomic Isolate
Node 0, zone DMA 1 7 0 0 0
Node 0, zone DMA32 59 1391 78 0 0
Node 0, zone Normal 448 5888 127 1 0
кошка /proc/sys/vm/extfrag_threshold
500
cat /sys/kernel/debug/extfrag/extfrag_index
Node 0, zone DMA -1.000 -1.000 -1.000 -1.000 -1.000 -1.000 -1.000 -1.000 -1.000 -1.000 -1.000
Node 0, zone DMA32 -1.000 -1.000 -1.000 -1.000 -1.000 -1.000 -1.000 0.988 0.994 0.997 0.999
Node 0, zone Normal -1.000 -1.000 -1.000 -1.000 -1.000 -1.000 0.979 0.990 0.995 0.998 0.999
бесплатно -h
total used free shared buff/cache available
Mem: 15G 11G 1.5G 1.2M 2.4G 3.7G
Swap: 4.0G 907M 3.1G
У нас эта проблема только на наших производственных серверах (которые работают уже почти год), наши нижние среды останавливаются каждые выходные, и нам пока не удалось вручную запустить эту проблему. Тем не менее, мы попытаемся заменить серверы на следующей неделе, надеясь, что эта проблема будет возникать гораздо реже.
Я знаю, что это маловероятно, я не эксперт в вопросах управления памятью в Linux, и маловероятно, что это является основной причиной, но это вопрос, на который мне бы хотелось узнать ответ.