
Я следил за этимофициальный учебникчтобы разрешить кластеру k8s на голом железе иметь доступ к GPU. Однако при этом я получил ошибки.
Kubernetes 1.21 containerd 1.4.11 и Ubuntu 20.04.3 LTS (GNU/Linux 5.4.0-91-generic x86_64).
Драйвер Nvidia предустановлен в системной ОС версии 495 Headless
После вставки следующего конфигурационного кода /etc/containerd/config.toml
и перезапуска службы containerd не запустится exit 1
.
КонтейнерныйКонфигурация.toml
системный журналздесь.
# persistent data location
root = "/var/lib/containerd"
# runtime state information
state = "/run/containerd"
# Kubernetes doesn't use containerd restart manager.
disabled_plugins = ["restart"]
# NVIDIA CONFIG START HERE
version = 2
[plugins]
[plugins."io.containerd.grpc.v1.cri"]
[plugins."io.containerd.grpc.v1.cri".containerd]
default_runtime_name = "nvidia"
[plugins."io.containerd.grpc.v1.cri".containerd.runtimes]
[plugins."io.containerd.grpc.v1.cri".containerd.runtimes.nvidia]
privileged_without_host_devices = false
runtime_engine = ""
runtime_root = ""
runtime_type = "io.containerd.runc.v2"
[plugins."io.containerd.grpc.v1.cri".containerd.runtimes.nvidia.options]
BinaryName = "/usr/bin/nvidia-container-runtime"
# NVIDIA CONFIG ENDS HERE
[debug]
level = ""
[grpc]
max_recv_message_size = 16777216
max_send_message_size = 16777216
[plugins.linux]
shim = "/usr/bin/containerd-shim"
runtime = "/usr/bin/runc"
Я могу подтвердить, что драйвер Nvidia обнаруживает графический процессор (Nvidia GTX 750Ti), запустив его nvidia-smi
и получив следующий вывод
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 495.44 Driver Version: 495.44 CUDA Version: 11.5 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|===============================+======================+======================|
| 0 NVIDIA GeForce ... Off | 00000000:02:00.0 Off | N/A |
| 34% 34C P8 1W / 38W | 0MiB / 2000MiB | 0% Default |
| | | N/A |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=============================================================================|
| No running processes found |
+-----------------------------------------------------------------------------+
измененныйconfig.tomlчто заставило его работать.
решение1
Насколько я могу судить, это вот что:
02 дек 03:15:36 k8s-node0 containerd[2179737]: containerd: недопустимый отключенный URI плагина "перезапуск" ожидается io.containerd.x.vx
02 дек 03:15:36 k8s-node0 systemd[1]: containerd.service: Основной процесс завершен, код=завершен, статус=1/СБОЙ
Так что если вызнатьчто restart
плагин -ish на самом деле включен, вам нужно будет отследить его новый синтаксис URI, но на самом деле я бы рекомендовал просто закомментировать эту строфу или использовать disabled_plugins = []
, посколькуроль контейнера ansibleмы используем, ничего не говорит о «перезагрузке» и имеет = []
оттенок
Попутно, вы можете ограничить свой journalctl
вызов в будущем, чтобы просто посмотреть на containerd.service
, так как он выброситмноготекста, который отвлекает внимание: journalctl -u containerd.service
и вы даже можете ограничить его только последними несколькими строками, что иногда может помочь еще больше:journalctl -u containerd.service --lines=250