
Tengo varios pods ejecutando una aplicación y al volver a implementar (maxSurge=1,maxUnavailable=1) todos los pods se reemplazan muy rápidamente, pero luego veo un pico de memoria en el clúster que muestra el doble de la memoria utilizada durante 3 a 4 minutos (¿retraso en la recolección de basura? ??).
¿Hay alguna manera de decirle a Kubernetes que limpie los recursos del pod terminado antes de crear otro?
Respuesta1
Si está utilizando un objeto de implementación y desea evitar la actualización continua, debe usar esto en la sección de especificaciones.
spec:
replicas: 3
strategy:
type: Recreate