Kubernetes drena el nodo maestro antes de reiniciar

Kubernetes drena el nodo maestro antes de reiniciar

Si tuviera que reiniciar sudo en un nodo maestro de Kubernetes, ¿sería Kubernetes lo suficientemente inteligente como para drenarse del clúster?

Digamos que tengo un servicio web ejecutando un pod que aterrizó en el nodo maestro. Si tuviera que "reiniciar sudo" el nodo maestro, ¿le diría a otro nodo que genere una copia antes de morir?

Respuesta1

Este no es el comportamiento esperado para Kubernetes. En realidad, los K8 representan el nodo maestro como elPlano de controlpara todas las operaciones administradas del clúster. Los principales contribuyentes en cada Nodo son:kubelet,proxy kubey software de tiempo de ejecución de contenedores (Docker, cri-o, etc.).

Siempre que desee reiniciar el sistema operativo en un nodo en particular (maestro, trabajador), el motor del clúster K8 no se da cuenta de esa acción y mantiene todos los eventos relacionados con el clúster enETCDAlmacenamiento de valores clave, copia de seguridad de los datos más recientes. Tan pronto como desee preparar cuidadosamente el reinicio del nodo del clúster, es posible que deba realizar ajustesMantenimientotrabajo en este Nodo para eliminarlo de la programación y terminar con gracia todos los Pods existentes.

Si compone cualquier recurso K8 relevante dentro de un conjunto definido deréplicas, entoncesControlador de replicacióngarantiza que se esté ejecutando un número específico de réplicas de pods en cualquier momento a través de cada nodo disponible. Simplemente reaparece los Pods si fallaron en la verificación de estado, se eliminaron o terminaron, coincidiendo con las réplicas deseadas.

información relacionada