Aislar Intel integrado (igpu) de Nvidia (gpu)

Aislar Intel integrado (igpu) de Nvidia (gpu)

En gran medida, se ha formulado esta pregunta, pero las maquinaciones en las respuestas están algo anticuadas o, sinceramente, no son definitivas. Por tanto, a riesgo de un penalti "ya pedido", mi objetivo:

Estoy tratando de aislar el video Intel integrado para que sirva todas las funciones como principal y aislar una GPU Nvidia para el trabajo de Cuda que no tiene un monitor conectado.

Aquí está la referencia principal/pregunta anterior:

¿Cómo configurar igpu para xserver y nvidia gpu para cuda?

Desafortunadamente, después de unos días tratando de ponerme xorg.confen forma, no funcionó. También detesto intentarlo bumblebeeporque agregar más complejidad al problema hasta que lo entienda mejor parece una tontería.

Mi actual xorg.confcopiado en gran medida del hilo anterior:

Section "ServerLayout"
    Identifier "layout"
    Screen 0 "nvidia"
    Inactive "intel"
EndSection

Section "Device"
    Identifier "intel"
    Driver "modesetting"
    BusID "PCI:0@0:2:0"
    Option "AccelMethod" "None"
EndSection

Section "Screen"
    Identifier "intel"
    Device "intel"
EndSection

Section "Device"
    Identifier "nvidia"
    Driver "nvidia"
    BusID "PCI:5@0:0:0"
    Option "ConstrainCursor" "off"
EndSection

Section "Screen"
    Identifier "nvidia"
    Device "nvidia"
    Option "AllowEmptyInitialConfiguration" "on"
    Option "IgnoreDisplayDevices" "CRT"
EndSection

Y puedes ver los procesos en la GPU:

root@zeus:~# nvidia-smi
Mon Nov 27 16:48:35 2017       
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.90                 Driver Version: 384.90                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 106...  Off  | 00000000:05:00.0 Off |                  N/A |
|  0%   42C    P8     6W / 120W |    257MiB /  3013MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0      1798      G   /usr/lib/xorg/Xorg                            59MiB |
|    0      4052      G   /usr/bin/gnome-shell                         192MiB |
|    0      9880      G   /usr/bin/python                                2MiB |
+-----------------------------------------------------------------------------+

Lo realmente frustrante de esto es que hay una anomalía de color en lua/ conkydebido a esto. De hecho, los colores tienen cambios (por ejemplo, el verde ahora es rojo).

Esta instalación se realizó con--dkms --no-opengl-files

Respuesta1

Entonces estuve cerca, al parecer. La solución final se deriva de aquí: https://devtalk.nvidia.com/default/topic/970144/linux/intel-for-display-nvidia-for-cuda-optimus-bug-/1

  1. Usando Prime cambiar a Intelsudo prime-select intel
  2. Eliminar el enlacesudo rm /usr/bin/nvidia-smi
  3. Cree un bashcontenedor para su versión instalada (384 en mi caso).Tenga en cuenta que tendrá que actualizar esto cuando haga el controlador.

nano /usr/bin/nvidia-smi

#!/bin/bash
export LD_LIBRARY_PATH=/usr/lib/nvidia-384; /etc/alternatives/x86_64-linux-gnu_nvidia_smi "$@"
  1. sudo chmod +x /usr/bin/nvidia-smi

Reiniciar

información relacionada