Failover de interconexão Patroni

Failover de interconexão Patroni

3 centros de dados:

Versão patroni: 2.1.4

Versão PostgreSQL: 14.4

Versão etcd: 3.3.11

CC Servidor Nome Hospedar Status
Patroni patroni-s11 172.16.0.2 Líder
Patroni patroni-s12 172.16.0.3 Sincronização em espera
ETCD etcd-s11 172.16.0.4 Líder
Patroni patroni-s21 172.16.1.2 Réplica
Patroni patroni-s22 172.16.1.3 Réplica
ETCD etcd-s21 172.16.1.4 escravo
Patroni patroni-s31 172.16.2.2 Réplica
ETCD etcd-s31 172.16.2.4 escravo

Simulei falha de interconexão entre o 1º Data Center e o 2º, ambos os DC estão ativos, mas o 1º e o 2º não se “vêem”.

Neste caso, o líder Patroni ainda permanece no 1º DC. Mas os servidores no segundo DC não sincronizam com o cluster. Se acreditar na integridade do cluster, tudo bem, sem atraso de replicação entre os servidores. Na verdade, todas as alterações no master não sincronizam com as réplicas do 2º Data Center.

[user@patroni-s11 ~]$ sudo patronictl -c /etc/patroni/patroni.yml list
2022-12-01 16:00:00,015 - ERROR - Request to server 172.16.1.4:2379 failed: MaxRetryError("HTTPConnectionPool(host='172.16.1.4', port=2379): Max retries exceeded with url: /v2/keys/service/patroni_cluster/?recursive=true (Caused by ProtocolError('Connection aborted.', ConnectionResetError(104, 'Connection reset by peer')))",)
+ Cluster: patroni_cluster (7117639577766255236) ---+---------+-----+-----------+
| Member          | Host          | Role         | State   |  TL | Lag in MB |
+-----------------+---------------+--------------+---------+-----+-----------+
| patroni-s11     | 172.16.0.2    | Leader       | running | 103 |           |
| patroni-s12     | 172.16.0.3    | Sync Standby | running | 103 |         0 |
| patroni-s21     | 172.16.1.2    | Replica      | running | 103 |         0 |
| patroni-s22     | 172.16.1.3    | Replica      | running | 103 |         0 |
| patroni-s31     | 172.16.2.2    | Replica      | running | 103 |         0 |
+-----------------+---------------+--------------+---------+-----+-----------+

Ainda acontece com os servidores Etcd, o líder ainda permanece no 1º DC.

[user@etcd-s11 ~]$ sudo etcdctl cluster-health
failed to check the health of member a85c06b926e6c6c8 on 172.16.1.4:2379: Get 172.16.1.4:2379/health: read tcp 10.220.0.3:38836->172.16.1.4:2379: read: connection reset by peer
member 261f8081db14d568 is healthy: got healthy result from 172.16.0.4:2379
member a85c06b926e6c6c8 is unreachable: [172.16.1.4: 2379] are all unreachable
member b87bd1df518cc9e4 is healthy: got healthy result from 172.16.2.4:2379
cluster is degraded

[user@etcd-s11 ~]$ sudo etcdctl member list
261f8081db14d568: name=etcd-s11 peerURLs=172.16.0.4:2380 clientURLs=172.16.0.4:2379 isLeader=true
a85c06b926e6c6c8: name=etcd-s21 peerURLs=172.16.1.4:2380 clientURLs=172.16.1.4:2379 isLeader=false
b87bd1df518cc9e4: name=etcd-s31 peerURLs=172.16.2.4:2380 clientURLs=172.16.2.4: 2379 isLeader=false

Mas o Etcd no 3º Data Center vê que o cluster está íntegro

[user@etcd-s31 ~]$ sudo etcdctl cluster-health
member 261f8081db14d568 is healthy: got healthy result from http:// 172.16.0.4: 2379
member a85c06b926e6c6c8 is healthy: got healthy result from http:// 172.16.1.4: 2379
member b87bd1df518cc9e4 is healthy: got healthy result from http:// 172.16.2.4: 2379
cluster is healthy

Eu esperava que os líderes se tornassem os servidores do 3º DC.

Patroni\etcd pode mudar o líder neste caso?

Responder1

Primeiro de tudo o qourm é 5/2 com level up, 3 servidores que serão atendidos se você tiver o site1 + site 3 rodando e o comportamento que você viu for o esperado

se o site 1 + site 3 não atender ao qourm será diff seinario

informação relacionada