localhost에 Ubuntu Kubernates 1.20 설치 -> 문서 오류 발생 -> 3개의 kube-system 포드가 시작되기를 기다리는 중

localhost에 Ubuntu Kubernates 1.20 설치 -> 문서 오류 발생 -> 3개의 kube-system 포드가 시작되기를 기다리는 중

설명서를 사용하여 설치를 시작한 것보다 VirtualBox에서 새로운 Ubuntu 20.03을 만들었습니다. 기계에는 Quadro RTX 카드가 있습니다(아마도 영향을 미칠까요?).

할 수 있는 방법이 많기 때문에 문서화가 지저분합니다. 제가 거의 모든 방법으로 확인한 것은 무엇이든 결코 성공으로 이어지지 않았기 때문에 결과가 매우 나쁩니다. 이 설치를 도와주실 수 있나요? 아니면 Ubuntu Kubernetes가 작동하지 않아 시간 낭비일까요?

추가 로그가 필요합니까?

이 오류를 일으키는 잘못된 문서:

  1. https://ubuntu.com/kubernetes/install#다중 노드
  2. https://ubuntu.com/kubernetes/docs/install-manual
  3. https://ubuntu.com/kubernetes/docs/install-local

우선 나는 다음을 시도합니다.

sudo snap install lxd

sudo lxd init
# all default apart:
# dir
# ipv6 none

sudo snap install juju --classic
juju bootstrap localhost

juju add-model k8s
juju deploy charmed-kubernetes

결과는 10개의 기계이고 작동하는 마스터가 아닙니다 :)

kubernetes-master/0*      waiting   idle   5        10.184.167.240  6443/tcp        Waiting for 3 kube-system pods to start
  containerd/2            active    idle            10.184.167.240                  Container runtime available
  flannel/2               active    idle            10.184.167.240                  Flannel subnet 10.1.1.1/24
kubernetes-master/1       waiting   idle   6        10.184.167.89   6443/tcp        Waiting for 3 kube-system pods to start
  containerd/3            active    idle            10.184.167.89                   Container runtime available
  flannel/3               active    idle            10.184.167.89                   Flannel subnet 10.1.43.1/24

전체 상태는 다음과 같습니다.

juju status --color
Model           Controller           Cloud/Region         Version  SLA          Timestamp
k8s-production  localhost-localhost  localhost/localhost  2.8.9    unsupported  17:00:24+01:00

App                    Version  Status   Scale  Charm                  Store       Rev  OS      Notes
containerd             1.3.3    active       5  containerd             jujucharms  102  ubuntu  
easyrsa                3.0.1    active       1  easyrsa                jujucharms  345  ubuntu  
etcd                   3.4.5    active       3  etcd                   jujucharms  553  ubuntu  
flannel                0.11.0   active       5  flannel                jujucharms  518  ubuntu  
kubeapi-load-balancer  1.18.0   active       1  kubeapi-load-balancer  jujucharms  757  ubuntu  exposed
kubernetes-master      1.20.4   waiting      2  kubernetes-master      jujucharms  955  ubuntu  
kubernetes-worker      1.20.4   active       3  kubernetes-worker      jujucharms  726  ubuntu  exposed

Unit                      Workload  Agent  Machine  Public address  Ports           Message
easyrsa/0*                active    idle   0        10.184.167.48                   Certificate Authority connected.
etcd/0*                   active    idle   1        10.184.167.23   2379/tcp        Healthy with 3 known peers
etcd/1                    active    idle   2        10.184.167.180  2379/tcp        Healthy with 3 known peers
etcd/2                    active    idle   3        10.184.167.194  2379/tcp        Healthy with 3 known peers
kubeapi-load-balancer/0*  active    idle   4        10.184.167.106  443/tcp         Loadbalancer ready.
kubernetes-master/0*      waiting   idle   5        10.184.167.240  6443/tcp        Waiting for 3 kube-system pods to start
  containerd/2            active    idle            10.184.167.240                  Container runtime available
  flannel/2               active    idle            10.184.167.240                  Flannel subnet 10.1.1.1/24
kubernetes-master/1       waiting   idle   6        10.184.167.89   6443/tcp        Waiting for 3 kube-system pods to start
  containerd/3            active    idle            10.184.167.89                   Container runtime available
  flannel/3               active    idle            10.184.167.89                   Flannel subnet 10.1.43.1/24
kubernetes-worker/0*      active    idle   7        10.184.167.52   80/tcp,443/tcp  Kubernetes worker running.
  containerd/0*           active    idle            10.184.167.52                   Container runtime available
  flannel/0*              active    idle            10.184.167.52                   Flannel subnet 10.1.20.1/24
kubernetes-worker/1       active    idle   8        10.184.167.226  80/tcp,443/tcp  Kubernetes worker running.
  containerd/4            active    idle            10.184.167.226                  Container runtime available
  flannel/4               active    idle            10.184.167.226                  Flannel subnet 10.1.6.1/24
kubernetes-worker/2       active    idle   9        10.184.167.158  80/tcp,443/tcp  Kubernetes worker running.
  containerd/1            active    idle            10.184.167.158                  Container runtime available
  flannel/1               active    idle            10.184.167.158                  Flannel subnet 10.1.12.1/24

Machine  State    DNS             Inst id        Series  AZ  Message
0        started  10.184.167.48   juju-c4f295-0  focal       Running
1        started  10.184.167.23   juju-c4f295-1  focal       Running
2        started  10.184.167.180  juju-c4f295-2  focal       Running
3        started  10.184.167.194  juju-c4f295-3  focal       Running
4        started  10.184.167.106  juju-c4f295-4  focal       Running
5        started  10.184.167.240  juju-c4f295-5  focal       Running
6        started  10.184.167.89   juju-c4f295-6  focal       Running
7        started  10.184.167.52   juju-c4f295-7  focal       Running
8        started  10.184.167.226  juju-c4f295-8  focal       Running
9        started  10.184.167.158  juju-c4f295-9  focal       Running

문서의 다른 순서와 마찬가지로 모두 아무것도 발생하지 않습니다. 어쩌면 제가 뭔가 잘못하고 있는 것일 수도 있습니다. Ubuntu Kubernetes가 로컬 호스트에서 작동하지 않을 수도 있습니다.

juju add-model k8s-production
juju deploy cs:bundle/charmed-kubernetes-596

이 소규모 배포도 작동하지 않습니다(설치가 끝나지 않습니다).

juju add-model k8s-development
juju deploy cs:bundle/kubernetes-core-1200

답변1

이것이 해결 방법인 것 같습니다.

juju config kubernetes-worker kubelet-extra-config='{protectKernelDefaults: false}'

https://bugs.launchpad.net/charmed-kubernetes-bundles/+bug/1918160

관련 정보