Quero usar o provisionamento automático de nós do GKE para criar um pool de nós com GPU sob demanda (ou seja, quando inicio um trabalho que precisa de recursos de GPU).
Seguindo o tutorial do GCP, configurei um cluster com cluster autoscaling
arquivos node auto-provisioning
. NAP configurou limites para CPU, memória e GPU:
resourceLimits:
- maximum: '15'
minimum: '1'
resourceType: cpu
- maximum: '150'
minimum: '1'
resourceType: memory
- maximum: '2'
resourceType: nvidia-tesla-k80
Eu sei que o NAP funciona porque já gerou alguns nós para mim, mas todos eram "normais" (sem GPU).
Agora, para "forçar" o NAP a criar um pool de nós com a máquina GPU. Antes disso, não existia nenhum nó GPU no cluster. Para fazer isso, estou criando um Job com esse arquivo de configuração:
apiVersion: batch/v1
kind: Job
metadata:
name: training-job
spec:
ttlSecondsAfterFinished: 100
template:
metadata:
name: training-job
spec:
nodeSelector:
gpu: "true"
cloud.google.com/gke-spot: "true"
cloud.google.com/gke-accelerator: nvidia-tesla-k80
tolerations:
- key: cloud.google.com/gke-spot
operator: Equal
value: "true"
effect: NoSchedule
containers:
- name: gpu-test
image: przomys/gpu-test
resources:
requests:
cpu: 500m
limits:
nvidia.com/gpu: 2 # requesting 2 GPU
restartPolicy: Never # Do not restart containers after they exit
O trabalho está sendo criado, mas é marcado como "Não programável" e o CA Log me apresenta o seguinte erro:
{
"noDecisionStatus": {
"measureTime": "1650370630",
"noScaleUp": {
"unhandledPodGroups": [
{
"rejectedMigs": [
{
"reason": {
"messageId": "no.scale.up.mig.failing.predicate",
"parameters": [
"NodeAffinity",
"node(s) didn't match Pod's node affinity/selector"
]
},
"mig": {
"zone": "us-central1-c",
"nodepool": "pool-3",
"name": "gke-cluster-activeid-pool-3-af526144-grp"
}
},
{
"mig": {
"name": "gke-cluster-activeid-nap-e2-standard--c7a4d4f1-grp",
"zone": "us-central1-c",
"nodepool": "nap-e2-standard-2-w52e84k8"
},
"reason": {
"parameters": [
"NodeAffinity",
"node(s) didn't match Pod's node affinity/selector"
],
"messageId": "no.scale.up.mig.failing.predicate"
}
}
],
"napFailureReasons": [
{
"parameters": [
"Any GPU."
],
"messageId": "no.scale.up.nap.pod.gpu.no.limit.defined"
}
],
"podGroup": {
"totalPodCount": 1,
"samplePod": {
"controller": {
"apiVersion": "batch/v1",
"kind": "Job",
"name": "training-job"
},
"namespace": "default",
"name": "training-job-7k8zd"
}
}
}
],
"unhandledPodGroupsTotalCount": 1
}
}
}
Meu palpite é queno.scale.up.nap.pod.gpu.no.limit.definidoé a parte mais importante.Tutorial do GCPme apontaaqui. Mas eu tenho esse limite definido, então estou sem ideias...
Talvez alguém tenha uma ideia do que estou fazendo de errado?