O provisionamento automático de nós do GKE não aumenta com os limites definidos

O provisionamento automático de nós do GKE não aumenta com os limites definidos

Quero usar o provisionamento automático de nós do GKE para criar um pool de nós com GPU sob demanda (ou seja, quando inicio um trabalho que precisa de recursos de GPU).

Seguindo o tutorial do GCP, configurei um cluster com cluster autoscalingarquivos node auto-provisioning. NAP configurou limites para CPU, memória e GPU:

resourceLimits:
  - maximum: '15'
    minimum: '1'
    resourceType: cpu
  - maximum: '150'
    minimum: '1'
    resourceType: memory
  - maximum: '2'
    resourceType: nvidia-tesla-k80

Eu sei que o NAP funciona porque já gerou alguns nós para mim, mas todos eram "normais" (sem GPU).

Agora, para "forçar" o NAP a criar um pool de nós com a máquina GPU. Antes disso, não existia nenhum nó GPU no cluster. Para fazer isso, estou criando um Job com esse arquivo de configuração:

apiVersion: batch/v1
kind: Job
metadata:
  name: training-job
spec:
  ttlSecondsAfterFinished: 100
  template:
    metadata:
      name: training-job
    spec:
      nodeSelector:
        gpu: "true"
        cloud.google.com/gke-spot: "true"
        cloud.google.com/gke-accelerator: nvidia-tesla-k80
      tolerations:
        - key: cloud.google.com/gke-spot
          operator: Equal
          value: "true"
          effect: NoSchedule
      containers:
        - name: gpu-test
          image: przomys/gpu-test
          resources:
            requests:
              cpu: 500m
            limits:
              nvidia.com/gpu: 2 # requesting 2 GPU
      restartPolicy: Never # Do not restart containers after they exit

O trabalho está sendo criado, mas é marcado como "Não programável" e o CA Log me apresenta o seguinte erro:

{
  "noDecisionStatus": {
    "measureTime": "1650370630",
    "noScaleUp": {
      "unhandledPodGroups": [
        {
          "rejectedMigs": [
            {
              "reason": {
                "messageId": "no.scale.up.mig.failing.predicate",
                "parameters": [
                  "NodeAffinity",
                  "node(s) didn't match Pod's node affinity/selector"
                ]
              },
              "mig": {
                "zone": "us-central1-c",
                "nodepool": "pool-3",
                "name": "gke-cluster-activeid-pool-3-af526144-grp"
              }
            },
            {
              "mig": {
                "name": "gke-cluster-activeid-nap-e2-standard--c7a4d4f1-grp",
                "zone": "us-central1-c",
                "nodepool": "nap-e2-standard-2-w52e84k8"
              },
              "reason": {
                "parameters": [
                  "NodeAffinity",
                  "node(s) didn't match Pod's node affinity/selector"
                ],
                "messageId": "no.scale.up.mig.failing.predicate"
              }
            }
          ],
          "napFailureReasons": [
            {
              "parameters": [
                "Any GPU."
              ],
              "messageId": "no.scale.up.nap.pod.gpu.no.limit.defined"
            }
          ],
          "podGroup": {
            "totalPodCount": 1,
            "samplePod": {
              "controller": {
                "apiVersion": "batch/v1",
                "kind": "Job",
                "name": "training-job"
              },
              "namespace": "default",
              "name": "training-job-7k8zd"
            }
          }
        }
      ],
      "unhandledPodGroupsTotalCount": 1
    }
  }
}

Meu palpite é queno.scale.up.nap.pod.gpu.no.limit.definidoé a parte mais importante.Tutorial do GCPme apontaaqui. Mas eu tenho esse limite definido, então estou sem ideias...

Talvez alguém tenha uma ideia do que estou fazendo de errado?

informação relacionada