Isolieren Sie integrierte Intel-Prozessoren (IGPU) von Nvidia (GPU).

Isolieren Sie integrierte Intel-Prozessoren (IGPU) von Nvidia (GPU).

Diese Frage wurde größtenteils schon gestellt, aber die Machenschaften in den Antworten sind irgendwie veraltet oder ehrlich gesagt nicht eindeutig. Daher, auf die Gefahr hin, dass ich eine „schon gestellt“-Strafe bekomme, mein Ziel:

Ich versuche, das integrierte Intel-Video zu isolieren, damit es alle Funktionen als primäres Element erfüllt, und eine Nvidia-GPU für CUDA-Arbeiten zu isolieren, an die kein Monitor angeschlossen ist.

Hier ist die primäre Referenz/vorherige Anfrage:

Wie konfiguriere ich IGPU für XServer und Nvidia-GPU für CUDA?

Leider xorg.confhat es nach ein paar Tagen, in denen ich versucht habe, mich in Form zu bringen, nicht geklappt. Ich scheue mich auch davor, es zu versuchen, bumblebeeweil es mir dumm erscheint, das Problem noch komplizierter zu machen, bis ich es besser verstehe.

Mein aktueller Thread xorg.confwurde größtenteils aus dem vorherigen Thread kopiert:

Section "ServerLayout"
    Identifier "layout"
    Screen 0 "nvidia"
    Inactive "intel"
EndSection

Section "Device"
    Identifier "intel"
    Driver "modesetting"
    BusID "PCI:0@0:2:0"
    Option "AccelMethod" "None"
EndSection

Section "Screen"
    Identifier "intel"
    Device "intel"
EndSection

Section "Device"
    Identifier "nvidia"
    Driver "nvidia"
    BusID "PCI:5@0:0:0"
    Option "ConstrainCursor" "off"
EndSection

Section "Screen"
    Identifier "nvidia"
    Device "nvidia"
    Option "AllowEmptyInitialConfiguration" "on"
    Option "IgnoreDisplayDevices" "CRT"
EndSection

Und Sie können die Prozesse auf der GPU sehen:

root@zeus:~# nvidia-smi
Mon Nov 27 16:48:35 2017       
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.90                 Driver Version: 384.90                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 106...  Off  | 00000000:05:00.0 Off |                  N/A |
|  0%   42C    P8     6W / 120W |    257MiB /  3013MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0      1798      G   /usr/lib/xorg/Xorg                            59MiB |
|    0      4052      G   /usr/bin/gnome-shell                         192MiB |
|    0      9880      G   /usr/bin/python                                2MiB |
+-----------------------------------------------------------------------------+

luaWas daran wirklich frustrierend ist, ist, dass dadurch eine Farbanomalie entsteht conky. Farben haben tatsächlich Änderungen (z. B. ist Grün jetzt Rot).

Diese Installation wurde durchgeführt mit--dkms --no-opengl-files

Antwort1

Ich war also nah dran, wie es scheint. Die endgültige Problemumgehung ergibt sich hieraus: https://devtalk.nvidia.com/default/topic/970144/linux/intel-for-display-nvidia-for-cuda-optimus-bug-/1

  1. Mit Prime zu Intel wechselnsudo prime-select intel
  2. Entfernen Sie den Linksudo rm /usr/bin/nvidia-smi
  3. Erstellen Sie einen bashWrapper für Ihre installierte Version (in meinem Fall 384).Beachten Sie, dass Sie dies aktualisieren müssen, wenn Sie den Treiber verwenden.

nano /usr/bin/nvidia-smi

#!/bin/bash
export LD_LIBRARY_PATH=/usr/lib/nvidia-384; /etc/alternatives/x86_64-linux-gnu_nvidia_smi "$@"
  1. sudo chmod +x /usr/bin/nvidia-smi

Neustart

verwandte Informationen