El clúster Multi-Master K8S falla cuando la mitad de los maestros están inactivos

El clúster Multi-Master K8S falla cuando la mitad de los maestros están inactivos

Tengo un clúster HA K8S de 4 maestros (en 2 centros de datos, 2 en cada sitio), pero el comando kubectl deja de funcionar después de apagar 2 maestros, ¿es este el comportamiento esperado?

Quiero que el clúster sobreviva a una caída del centro de datos.

PD: estoy usando 2 proxy HA + Keepalived

Respuesta1

Supongo que su maestro albergaría contenedores etcd, ¿verdad? Entonces esto se espera, sí.

ControlarPreguntas frecuentes sobre etc.. De hecho, un clúster de 4 nodos tendría una tolerancia a fallas de 1 miembro. Necesitaría 5 miembros para permitir 2 fracasos. Aunque el tamaño recomendado para ejecutar Kubernetes suele ser 3.

Las implementaciones de múltiples centros de datos pueden ser complicadas: la latencia entre los miembros de etcd sería un problema. Si esto te parece bien, para sobrevivir a un accidente de DC, entonces necesitas 3 DC. De lo contrario, será mejor que considere configurar clústeres individuales e implementar conmutación por error/replicación además de ellos.

información relacionada