Keepalived leitet den Datenverkehr nach der Einrichtung des Kubernetes-Clusters nicht an den BACKUP-Knoten weiter

Keepalived leitet den Datenverkehr nach der Einrichtung des Kubernetes-Clusters nicht an den BACKUP-Knoten weiter

Systemstruktur:

  • 10.10.1.86: Kubernetes-Masterknoten
  • 10.10.1.87: Kubernetes Worker 1-Knoten; keepalivedMASTER-Knoten
  • 10.10.1.88: Kubernetes Worker 2-Knoten; keepalivedBACKUP-Knoten
  • 10.10.1.90: VIP, würde den Lastenausgleich auf .87& .88; implementieren durch keepalived.

Dieser Kubernetes-Cluster ist eine Entwicklungsumgebung, in der das Sammeln von Netflow-Protokollen getestet wird.

Was ich erreichen möchte, ist:

  1. Alle Router / Switch Netflow-Protokoll zuerst ausgeben an.90
  2. Verwenden Sie dann keepalivedzum Lastenausgleich ( lb_kind:) NATauf .87& .88, wobei es sich um zwei Kubernetes-Worker handelt.
  3. Es gibt NodePorteinen Dienst, der diesen Datenverkehr im Kubernetes-Cluster abfängt und die restlichen Datenanalyseaufgaben übernimmt.
  • Etwas wie:
        |                {OS Network}                   |   {Kubernetes Network}

                                K8s Worker -> filebeat -> logstash (deployments)
                              /
<data> -> [VIP] load balance
                              \ 
                                K8s Worker -> filebeat -> logstash (deployments)
  • filebeat.yml (habe getestet, dass der Datenverkehr nach Filebeat in Ordnung ist, daher verwende ich filedie Ausgabe, um die Grundursache einzugrenzen.)
# cat filebeat.yml
filebeat.inputs:

- type: tcp
  max_message_size: 10MiB
  host: "0.0.0.0:5100"

- type: udp
  max_message_size: 10KiB
  host: "0.0.0.0:5150"




#output.logstash:
#  hosts: ["10.10.1.87:30044", "10.10.1.88:30044"]
output.file:
  path: "/tmp/"
  filename: tmp-filebeat.out

Kubernetes

  • Master und Worker sind 3 VMs in meiner privaten Umgebung; keiner der GCP- oder AWS-Anbieter.
  • Ausführung:
# kubectl version
Client Version: version.Info{Major:"1", Minor:"21", GitVersion:"v1.21.0", GitCommit:"cb303e613a121a29364f75cc67d3d580833a7479", GitTreeState:"clean", BuildDate:"2021-04-08T16:31:21Z", GoVersion:"go1.16.1", Compiler:"gc", Platform:"linux/amd64"}
Server Version: version.Info{Major:"1", Minor:"21", GitVersion:"v1.21.0", GitCommit:"cb303e613a121a29364f75cc67d3d580833a7479", GitTreeState:"clean", BuildDate:"2021-04-08T16:25:06Z", GoVersion:"go1.16.1", Compiler:"gc", Platform:"linux/amd64"}
  • Dienstleistungen
# cat logstash.service.yaml
apiVersion: v1
kind: Service
metadata:
  name: logstash-service
spec:
  type: NodePort
  selector:
    app: logstash
  ports:
    - port: 9514
      name: tcp-port
      targetPort: 9514
      nodePort: 30044
  • Sobald die Daten in Kubernetes sind, funktioniert alles einwandfrei.
  • Es lag an der Nichtweiterleitung des VIP-Lastausgleichs.

Keepalived-Konferenz

!Configuration File for keepalived
global_defs {
  router_id proxy1   # `proxy 2` at the other node
}


vrrp_instance VI_1 {
  state MASTER       # `BACKUP` at the other node
  interface ens160
  virtual_router_id 41
  priority 100       # `50` at the other node
  advert_int 1
  virtual_ipaddress {
    10.10.1.90/23
  }
}

virtual_server 10.10.1.90 5100 {
  delay_loop 30
  lb_algo rr
  lb_kind NAT
  protocol TCP
  persistence_timeout 0

  real_server 10.10.1.87 5100 {
    weight 1
  }
  real_server 10.10.1.88 5100 {
    weight 1
  }
}
virtual_server 10.10.1.90 5150 {
  delay_loop 30
  lb_algo rr
  lb_kind NAT
  protocol UDP
  persistence_timeout 0

  real_server 10.10.1.87 5150 {
    weight 1
  }
  real_server 10.10.1.88 5150 {
    weight 1
  }

Es funktioniert vor der Einrichtung eines Kubernetes-Clusters

  • Beide .87& .88haben installiert keepalived, und rr(Robin) Lastenausgleich funktioniert gut (TCP und UDP).
  • Stoppen Sie vorsichtshalber keepalivedden Dienst ( ), wenn Sie den Kubernetes-Cluster einrichten.systemctl stop keepalived

Nach der Einrichtung des Kubernetes-Clusters ist ein Problem aufgetreten

  • Es wurde festgestellt, dass nur der MASTER-Knoten .87den Datenverkehr weiterleiten kann, der VIP kann nicht an den BACKUP-Knoten weiterleiten .88.
  • Die weitergeleiteten Daten von MASTER werden erfolgreich von Kubernetes NodePortund Bereitstellungen abgefangen.

Problemtest durch nc:

  • nc: Nur wer VIP (MASTER-Knoten) besitzt, kann Datenverkehr weiterleiten. Bei rrder Weiterleitung an BACKUP wird lediglich ein Timeout angezeigt.
  • auch auf beiden Servern getestet nc -l 5100, nur der MASTER-Knoten hat Ergebnisse geliefert.
# echo "test" | nc 10.10.1.90 5100
# echo "test" | nc 10.10.1.90 5100
Ncat: Connection timed out.
# echo "test" | nc 10.10.1.90 5100
# echo "test" | nc 10.10.1.90 5100
Ncat: Connection timed out.

Einige Informationen

  • Paketversionen
# rpm -qa |grep keepalived
keepalived-1.3.5-19.el7.x86_64
  • Kubernetes CNI:Calico
# kubectl get pod -n kube-system
NAME                                      READY   STATUS    RESTARTS   AGE
calico-kube-controllers-b656ddcfc-wnkcj   1/1     Running   2          78d
calico-node-vnf4d                         1/1     Running   8          78d
calico-node-xgzd5                         1/1     Running   1          78d
calico-node-zt25t                         1/1     Running   8          78d
coredns-558bd4d5db-n6hnn                  1/1     Running   2          78d
coredns-558bd4d5db-zz2rb                  1/1     Running   2          78d
etcd-a86.axv.bz                           1/1     Running   2          78d
kube-apiserver-a86.axv.bz                 1/1     Running   2          78d
kube-controller-manager-a86.axv.bz        1/1     Running   2          78d
kube-proxy-ddwsr                          1/1     Running   2          78d
kube-proxy-hs4dx                          1/1     Running   3          78d
kube-proxy-qg2nq                          1/1     Running   1          78d
kube-scheduler-a86.axv.bz                 1/1     Running   2          78d
  • ipvsadm(dasselbe Ergebnis auf .87, .88)
# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  10.10.1.90:5100 rr
  -> 10.10.1.87:5100              Masq    1      0          0
  -> 10.10.1.88:5100              Masq    1      0          0
UDP  10.10.1.90:5150 rr
  -> 10.10.1.87:5150              Masq    1      0          0
  -> 10.10.1.88:5150              Masq    1      0          0
  • Selinux ist immerPermissive
  • Wenn es stoppt firewalld, funktioniert es immer noch nicht.
  • sysctlUnterschied:
# before:
net.ipv4.conf.all.accept_redirects = 1
net.ipv4.conf.all.forwarding = 0
net.ipv4.conf.all.route_localnet = 0
net.ipv4.conf.default.forwarding = 0
net.ipv4.conf.lo.forwarding = 0
net.ipv4.ip_forward = 0

# after
net.ipv4.conf.all.accept_redirects = 0
net.ipv4.conf.all.forwarding = 1
net.ipv4.conf.all.route_localnet = 1
net.ipv4.conf.default.forwarding = 1
net.ipv4.conf.lo.forwarding = 1
net.ipv4.ip_forward = 1

Ich bin nicht sicher, ob jetzt noch weitere Prüfungen möglich sind. Bitte geben Sie mir einen Rat. Danke!

verwandte Informationen