¿Cómo puedo saber qué está causando el uso excesivo de CPU en el motor de contenedores de Google?

¿Cómo puedo saber qué está causando el uso excesivo de CPU en el motor de contenedores de Google?

Tengo un clúster de un solo nodo en el motor de contenedor que tiene aproximadamente un 40% de CPU cuando está inactivo, como se ve en el panel de monitoreo.

Cuando hago clic en el monitoreo, todos los pods están al 0% de CPU.

Cuando entro en la instancia, puedo ver que Docker, Kubelet y Heapster son los principales culpables, pero no entiendo qué trabajo están haciendo.

Si miro los registros, veo líneas como la siguiente, repetidas una y otra vez muchas veces por segundo. Supongo que esto está relacionado.

gke-rogue-dev-7248e467-node-9hvh 2015-10-13 19:50:55.000 time="2015-10-13T23:50:55Z" level=info msg="-job containers() = OK (0)"
gke-rogue-dev-7248e467-node-9hvh 2015-10-13 19:50:55.000 time="2015-10-13T23:50:55Z" level=info msg="+job containers()"
gke-rogue-dev-7248e467-node-9hvh 2015-10-13 19:50:55.000 time="2015-10-13T23:50:55Z" level=info msg="GET /containers/json"

¿Cuál debería ser mi próximo paso para descubrir por qué sucede esto?

Respuesta1

Tuve la misma pregunta recientemente: https://serverfault.com/q/728211/310585

La respuesta a "qué trabajo están haciendo" es "registro y seguimiento".

Para evitar esta sobrecarga, solo necesita anular la selección de esas funciones al crear el clúster. En la consola del desarrollador hay casillas de verificación para ellos. En la CLI agregue las opciones --no-enable-cloud-logging --no-enable-cloud-monitoringal gcloud container clusters createcomando.

información relacionada