Kuberenetes-Knoten-zu-Knoten-Kommunikation funktioniert nicht wie erwartet

Kuberenetes-Knoten-zu-Knoten-Kommunikation funktioniert nicht wie erwartet

Hallo an alle

Ich habe ein Problem mit meinem Kubernetes-Cluster

Spezifikation

Cluster

NAME                 STATUS   ROLES    AGE   VERSION   INTERNAL-IP     EXTERNAL-IP   OS-IMAGE             KERNEL-VERSION     CONTAINER-RUNTIME
k8s-w02-prod   Ready    <none>   40d   v1.19.2   192.168.25.20   <none>        Ubuntu 20.04.1 LTS   5.4.0-54-generic   docker://19.3.8
k8s-m01-prod   Ready    master   40d   v1.19.2   10.60.17.15    <none>        Ubuntu 20.04.1 LTS   5.4.0-58-generic   docker://19.3.8
k8s-m02-prod   Ready    master   40d   v1.19.2   10.60.17.16    <none>        Ubuntu 20.04.1 LTS   5.4.0-54-generic   docker://19.3.8
k8s-m03-prod   Ready    master   40d   v1.19.2   10.60.17.17    <none>        Ubuntu 20.04.1 LTS   5.4.0-54-generic   docker://19.3.8
k8s-w01-prod   Ready    <none>   40d   v1.19.2   192.168.29.20    <none>        Ubuntu 20.04.1 LTS   5.4.0-54-generic   docker://19.3.8

Cluster-Netzwerk-Plugin Calico verwenden

Pod: Netzwerk: podSubnet: 10.65.0.0/16

Calico process is running.

IPv4 BGP status
+---------------+-------------------+-------+------------+-------------+
| PEER ADDRESS  |     PEER TYPE     | STATE |   SINCE    |    INFO     |
+---------------+-------------------+-------+------------+-------------+
| 192.168.25.20 | node-to-node mesh | up    | 23:37:55   | Established |
| 10.60.11.156  | node-to-node mesh | up    | 2021-01-04 | Established |
| 10.60.11.157  | node-to-node mesh | up    | 2021-01-04 | Established |
| 192.168.29.20 | node-to-node mesh | up    | 2021-01-04 | Established |
+---------------+-------------------+-------+------------+-------------+

IPv6 BGP status
No IPv6 peers found.

Es verwendet Node-to-Node Mesh

Problem

Wenn ich die einfache Anwendung ausführe, zum Beispiel: ArgoCD

argo-cd-argocd-application-controller-74dd8b79f5-vldhb   1/1     Running   0          14h   10.65.102.48   k8s-w02-prod   <none>           <none>
argo-cd-argocd-dex-server-5c656d6c6c-shb69               1/1     Running   0          14h   10.65.102.52   k8s-w02-prod   <none>           <none>
argo-cd-argocd-redis-9757589c5-6w2p6                     1/1     Running   0          14h   10.65.102.60   k8s-w02-prod   <none>           <none>
argo-cd-argocd-repo-server-774c6856f9-vgmq8              1/1     Running   0          14h   10.65.102.4    k8s-w02-prod   <none>           <none>
argo-cd-argocd-server-669fc6db5c-x5w4k                   1/1     Running   0          13h   10.65.72.159   k8s-w01-prod   <none>           <none>

F) Ich kann nicht auf die ArgoCD Web-Benutzeroberfläche zugreifen, da ich sehe, dass Pods auf

  • Arbeiter01:k8s-w01-prod 192.168.25.20
ip route | grep tun

10.65.69.192/26 via 10.60.17.17 dev tunl0 proto bird onlink 
10.65.102.0/26 via 192.168.25.20 dev tunl0 proto bird onlink 
10.65.187.64/26 via 10.60.17.15 dev tunl0 proto bird onlink 
10.65.233.192/26 via 10.60.17.16 dev tunl0 proto bird onlink 


Arbeiter02:k8s-w02-prod 192.168.29.20

10.65.69.192/26 via 10.60.17.17 dev tunl0 proto bird onlink 
10.65.72.128/26 via 192.168.29.20 dev tunl0 proto bird onlink 
10.65.187.64/26 via 10.60.17.15 dev tunl0 proto bird onlink 
10.65.233.192/26 via 10.60.17.16 dev tunl0 proto bird onlink 

Läuft in einem anderen Subnetz

Ping funktioniert auf beiden Seiten völlig einwandfrei

Wenn ich die Knotenauswahlbezeichnungen verwende, um Pods auf dem ausgewählten Knoten, d. h. worker01 oder worker02, auszuführen, ist das Problem gelöst.

F) Wie kann ich den Datenverkehr so ​​umleiten, dass die ArgoCD-WebUI der Anwendung ohne Knoten-zu-Knoten-Kommunikationsprobleme funktioniert (Pod kann auf jedem Knoten ausgeführt werden und untereinander kommunizieren)?

F) Ist es eine gute Idee, BGP auf Calico zu verwenden? ohne Node-to-Node-Mesh

https://docs.projectcalico.org/networking/bgp

Bitte geben Sie mir einen Rat, wie ich dieses Problem beheben kann

Antwort1

Ich habe einen Workaround gefunden, um dieses Problem zu umgehen, indem ich nodeAffinity verwende

       affinity:   
         nodeAffinity:
           preferredDuringSchedulingIgnoredDuringExecution:
           - weight: 1
             preference:
               matchExpressions:
               - key: "kubernetes.io/hostname"
                 operator: In
                 values:
                 - k8s-w01-prod

Aber das Problem besteht immer noch auf meiner Seite

verwandte Informationen