Como conceder acesso de leitura/gravação por meio da política SELinux a um volume montado em ligação via podman play kube sem raiz?

Como conceder acesso de leitura/gravação por meio da política SELinux a um volume montado em ligação via podman play kube sem raiz?

Recentemente mudei do Docker paraPodmane criou um compatível com Kubernetesdefinição de podarquivo yaml.
A definição foi carregada com sucesso usando rootlesspodman play kubecomando, então, declarou Pod e início do contêiner, masacesso de leitura foi negadoao tentar listar o conteúdo dehostPathvolume vinculado dentro do contêiner.

Carregando a definição e despejando logs de contêiner "frontais"

$ podman play kube ./my-pod.yaml ; sleep 1 ; podman logs front
/var/www  # pwd
0 0       # echo `id -u` `id -g`
total 0   # ls -lha   
ls: cannot open '.': Permission denied

Acredito que a negação deve ter a ver comSELinuxpolítica de restrição, pois os direitos de controle de acesso discricionário de arquivos parecem suficientemente permissivos no diretório host ...

$ pwd ; ls -lhaZ
/home/stph/my-project
drwxrwxr-x.  9 stph stph unconfined_u:object_r:user_home_t:s0 4.0K Apr 15 22:30 .
drwxrwxr-x.  4 stph stph unconfined_u:object_r:user_home_t:s0 4.0K Apr 15 22:30 ..
drwxr-xr-x.  5 stph stph unconfined_u:object_r:user_home_t:s0 4.0K Apr  3 14:11 ui

Então, eu ingenuamente apliquei o mesmoSELinuxrótulos do diretório Host para o pod, mas aparentemente e sem surpresa não resolveu nada.

Pode haver algo sobre a rotulagem privada de acordo compodman jogar kubedocumentação:

Nota: tipos de volume HostPath criados porjogar kubeserá dado umSELinuxmarca própria

O que eu acredito significa apenas quecaminho do hostos volumes não podem ser compartilhados por vários contêineres (posso estar enganado aqui).

Arquivo de definição Podman pod yaml

apiVersion: v1
kind: Pod
metadata:
  name: my-pod
spec:
  hostname: my-pod-host
  volumes:
  - name: projdir
    hostPath:
      path: /home/stph/my-project
      type: Directory
  securityContext:
    seLinuxOptions:
      level: s0
      role: object_r
      type: user_home_t
      user: unconfined_u
  containers:
  - name: front
    image: node:lts-alpine
    workingDir: /var/www
    env:
      - name: API_ENTRYPOINT
        value: "http://localhost:80/api"
    ports:
      - containerPort: 5000
        hostIP: 127.0.0.1
        hostPort: 5000
        protocol: TCP
    volumeMounts:
    - name: projdir
      mountPath: /var/www
      subPath: ui
    command: ['/bin/sh', '-c', 'pwd ; echo `id -u` `id -g` ; ls -lha']

Mapeamentos /etc/subuid

cat /etc/subuid
stph:1000:1
stph:100000:65536

Extrato de podman inspect frontsaída

{
  "Id": "c93a3d6...",
  "Created": "2020-04-15T19:01:14.034867742+02:00",
  "Path": "docker-entrypoint.sh",
  "Args": [
    "/bin/sh",
    "-c",
    "pwd ; echo `id -u` `id -g` ; ls -lha"
  ],
  "State": {
    "OciVersion": "1.0.1-dev",
    "Status": "exited",
    ...
  },
  "Image": "f77abbe...",
  "ImageName": "node:lts-alpine",
  "Rootfs": "",
  "Pod": "26bd784...",
  "ResolvConfPath": "/run/user/1000/containers/overlay-containers/93c4707.../userdata/resolv.conf",
  "HostnamePath": "/run/user/1000/containers/overlay-containers/c93a3d.../userdata/hostname",
  "HostsPath": "/run/user/1000/containers/overlay-containers/93c4707.../userdata/hosts",
  "StaticDir": ".../containers/storage/overlay-containers/c93a3d.../userdata",
  "OCIConfigPath": ".../containers/storage/overlay-containers/c93a3d.../userdata/config.json",
  "OCIRuntime": "crun",
  "LogPath": ".../containers/storage/overlay-containers/c93a3d.../userdata/ctr.log",
  "LogTag": "",
  "ConmonPidFile": "/run/user/1000/containers/overlay-containers/c93a3d.../userdata/conmon.pid",
  "Name": "front",
  "RestartCount": 0,
  "Driver": "overlay",
  "MountLabel": "system_u:object_r:container_file_t:s0:c57,c80",
  "ProcessLabel": "system_u:system_r:container_t:s0:c57,c80",
  "Mounts": [
    {
      "Type": "bind",
      "Name": "",
      "Source": "/home/stph/my-project",
      "Destination": "/var/www",
      "Driver": "",
      "Mode": "",
      "Options": [
          "rbind"
      ],
      "RW": true,
      "Propagation": "rprivate"
    }
  ],
  "Namespace": "",
  "IsInfra": false,
  "Config": {
    "Hostname": "ski-pod-host",
    "Domainname": "",
    "User": "",
    "AttachStdin": false,
    "AttachStdout": false,
    "AttachStderr": false,
    "Tty": false,
    "OpenStdin": false,
    "StdinOnce": false,
    "Env": [
      "PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin",
      "TERM=xterm",
      "NODE_VERSION=12.16.1",
      "YARN_VERSION=1.22.0",
      "API_ENTRYPOINT=http://localhost:80",
      "HOSTNAME=ski-pod-host",
      "HOME=/root",
      "container=libpod"
    ],
    "Cmd": [
      "docker-entrypoint.sh", "/bin/sh", "-c", "pwd ; echo `id -u` `id -g` ; ls -lha"
    ],
    "Image": "node:lts-alpine",
    "Volumes": null,
    "WorkingDir": "/var/www",
    "Entrypoint": "",
    "StopSignal": 15
    ...
  },
  "HostConfig": {
    "Binds": [
      "/home/stph/my-project:/var/www:rw,rprivate,rbind"
    ],
    "NetworkMode": "container:93c4707...",
    "RestartPolicy": {
      "Name": "",
      "MaximumRetryCount": 0
    },
    "AutoRemove": false,
    "VolumeDriver": "",
    "VolumesFrom": null,
    "IpcMode": "container:93c4707...",
    "Cgroup": "",
    "Cgroups": "default",
    "Privileged": false,
    "ReadonlyRootfs": false,
    "SecurityOpt": [],
    ...
  }
  ...
}

Os registros relacionados journalctl -a -rnão mostram nada relacionado à negação de acesso nem a ações não autorizadas.

Alguma sugestão sobre como depurar/resolver esta situação? Obrigado.

Responder1

Eu tive o mesmo problema e encontrei esta solução. Em vez de tentar aplicar os mesmos rótulos do host, basta desabilitar os rótulos:

  securityContext:
    seLinuxOptions:
      type: spc_t

Desative type: spc_to rótulo do SELinux. Seria o equivalente a executar o comando podmancom o argumento --security-opt label=disable. Por exemplo:

podman run -it --security-opt label=disable -v .:/foo alpine

Encontrei a solução aqui:https://github.com/containers/libpod/pull/5307#issuecomment-590830455

Espero que ajude.

informação relacionada