kubernetes ページから kubelet コンポーネントをスタンドアロン サービスとして設定しようとしていますが、何かが足りないようです。
containerd + runc (を設定しました手順に従って) と:
$ mkdir -p /etc/containerd/
$ containerd config default | tee /etc/containerd/config.toml
$ sed 's/SystemdCgroup.*/SystemdCgroup = true/' -i /etc/containerd/config.toml
runc を有効にするには:
[plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc]
...
[plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc.options]
SystemdCgroup = true
しかし、何かが欠けているようで、次のエラーが引き続き発生します:
Feb 28 12:29:45 ip-200-115-0-5 kubelet[1854442]: E0228 12:29:45.986417 1854442 cri_stats_provider.go:455] "Failed to get the info of the filesystem with mountpoint" err="unable to find data in memory cache" mountpoint="/var/lib/containerd/io.containerd.snapshotter.v1.overlayfs"
2 番目の問題は、ポッド内からインターネットにアクセスできないようです。次のコマンドで kubelet を起動しました。
ExecStart=/usr/local/bin/kubelet \
--config=/etc/kubernetes/kubelet-config.yaml \
--resolv-conf=/etc/resolv.conf \
--pod-cidr=10.88.0.0/16 \
--cluster-domain=cluster.local \
--cluster-dns=127.0.0.53 \
--cgroup-driver=systemd \
--fail-swap-on=false \
--pod-manifest-path=/etc/kubernetes/manifests \
--container-runtime=remote \
--container-runtime-endpoint=unix:///run/containerd/containerd.sock \
--runtime-request-timeout=10m \
--network-plugin=cni \
--cni-conf-dir=/etc/cni/ \
--cni-bin-dir=/opt/cni/bin
バージョンについては、以下を使用しています:
- コンテナ 1.6.19
- ランク 1.1.4
- クベレット 1.23.16
- ウブントゥ 20.04
任意のヒント?
ありがとう
答え1
しばらくこの状態から離れたあと、戻ってもう少し問題を解決することができました。
したがって、最初はコンテナにネットワークがないことが考えられました。これをトラブルシューティングするには、次の操作を実行できます。
# ip netns
cni-f6078594-55bf-95d3-a2fd-33a5095b74c9 (id: 0)
したがって、Kubelet がスピンする各 Pod に対して、ネットワーク名前空間が作成され、仮想インターフェースがアタッチされます。これが Pod 設計です。こちらでご確認ください。
トラブルシューティングに進みます。
# ip netns exec cni-f6078594-55bf-95d3-a2fd-33a5095b74c9 ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0@if11: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default
link/ether 56:ef:8e:da:f2:29 brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet 10.200.0.15/24 brd 10.200.0.255 scope global eth0
valid_lft forever preferred_lft forever
inet6 fe80::54ef:8eff:feda:f229/64 scope link
valid_lft forever preferred_lft forever
これは、ネットワーク名前空間内のインターフェースに実際にIPが割り当てられていたことを強調しています。10.200.0.15/24
名前空間を介して接続を試してみましょう:
# ip netns exec cni-f6078594-55bf-95d3-a2fd-33a5095b74c9 ping 8.8.8.8
PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data.
64 bytes from 8.8.8.8: icmp_seq=1 ttl=57 time=0.975 ms
64 bytes from 8.8.8.8: icmp_seq=2 ttl=57 time=1.24 ms
ただし、次の操作を試行すると、コンテナーが接続されていることが保証されます。
# ip netns exec cni-f6078594-55bf-95d3-a2fd-33a5095b74c9 ping google.com
ping: google.com: Temporary failure in name resolution
このことから、接続の問題ではなく、DNS の問題が発生していることがわかります。
そこで、これを解決するために、適切なサーバーで新しい /root/resolve.conf ファイルを作成しました。
nameserver 8.8.8.8
nameserver 8.8.4.4
そしてコマンドを更新しました:
--resolv-conf=/etc/resolv.conf \
新しいファイルを指定するには、次のようにします。
--resolv-conf=/root/resolv.conf \
また、クラスター DNS も削除しました。
--cluster-dns=127.0.0.53 \
クラスター DNS を修正する必要がありますが、検証の目的では、DNS がインスタンス外部の DNS を指すようにすれば十分です。
編集:
後から考えてみると、私はこれを改善しました。resolv.conf は変更せず、cluster-dns を更新しました。
--cluster-dns=8.8.8.8 \
今のところはこれがより良い解決策です。まだ調査中です。