Diese Frage wurde größtenteils schon gestellt, aber die Machenschaften in den Antworten sind irgendwie veraltet oder ehrlich gesagt nicht eindeutig. Daher, auf die Gefahr hin, dass ich eine „schon gestellt“-Strafe bekomme, mein Ziel:
Ich versuche, das integrierte Intel-Video zu isolieren, damit es alle Funktionen als primäres Element erfüllt, und eine Nvidia-GPU für CUDA-Arbeiten zu isolieren, an die kein Monitor angeschlossen ist.
Hier ist die primäre Referenz/vorherige Anfrage:
Wie konfiguriere ich IGPU für XServer und Nvidia-GPU für CUDA?
Leider xorg.conf
hat es nach ein paar Tagen, in denen ich versucht habe, mich in Form zu bringen, nicht geklappt. Ich scheue mich auch davor, es zu versuchen, bumblebee
weil es mir dumm erscheint, das Problem noch komplizierter zu machen, bis ich es besser verstehe.
Mein aktueller Thread xorg.conf
wurde größtenteils aus dem vorherigen Thread kopiert:
Section "ServerLayout"
Identifier "layout"
Screen 0 "nvidia"
Inactive "intel"
EndSection
Section "Device"
Identifier "intel"
Driver "modesetting"
BusID "PCI:0@0:2:0"
Option "AccelMethod" "None"
EndSection
Section "Screen"
Identifier "intel"
Device "intel"
EndSection
Section "Device"
Identifier "nvidia"
Driver "nvidia"
BusID "PCI:5@0:0:0"
Option "ConstrainCursor" "off"
EndSection
Section "Screen"
Identifier "nvidia"
Device "nvidia"
Option "AllowEmptyInitialConfiguration" "on"
Option "IgnoreDisplayDevices" "CRT"
EndSection
Und Sie können die Prozesse auf der GPU sehen:
root@zeus:~# nvidia-smi
Mon Nov 27 16:48:35 2017
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.90 Driver Version: 384.90 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GTX 106... Off | 00000000:05:00.0 Off | N/A |
| 0% 42C P8 6W / 120W | 257MiB / 3013MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 1798 G /usr/lib/xorg/Xorg 59MiB |
| 0 4052 G /usr/bin/gnome-shell 192MiB |
| 0 9880 G /usr/bin/python 2MiB |
+-----------------------------------------------------------------------------+
lua
Was daran wirklich frustrierend ist, ist, dass dadurch eine Farbanomalie entsteht conky
. Farben haben tatsächlich Änderungen (z. B. ist Grün jetzt Rot).
Diese Installation wurde durchgeführt mit--dkms --no-opengl-files
Antwort1
Ich war also nah dran, wie es scheint. Die endgültige Problemumgehung ergibt sich hieraus: https://devtalk.nvidia.com/default/topic/970144/linux/intel-for-display-nvidia-for-cuda-optimus-bug-/1
- Mit Prime zu Intel wechseln
sudo prime-select intel
- Entfernen Sie den Link
sudo rm /usr/bin/nvidia-smi
- Erstellen Sie einen
bash
Wrapper für Ihre installierte Version (in meinem Fall 384).Beachten Sie, dass Sie dies aktualisieren müssen, wenn Sie den Treiber verwenden.
nano /usr/bin/nvidia-smi
#!/bin/bash
export LD_LIBRARY_PATH=/usr/lib/nvidia-384; /etc/alternatives/x86_64-linux-gnu_nvidia_smi "$@"
sudo chmod +x /usr/bin/nvidia-smi
Neustart