
Ich habe gerade einen neuen Computer mit einem i7 4790k und GTX 770 bekommen, bin aber von der Leistung sehr enttäuscht. Ich hatte schlechte Frameraten bei League of Legends auf „Sehr hoch“ und gerade habe ich Mirror's Edge, ein altes Spiel, gestartet und es lief mit einer sehr niedrigen Framerate auf hohen Einstellungen. Ein Freund meinte, es klinge, als würde die Grafikkarte nicht verwendet, und tatsächlich war die GPU beim Spielen von Mirror's Edge mit GPU-Z zur Überwachung unter 0 % ausgelastet (sie war jedoch immer noch zur Überwachung verfügbar, also nehme ich an, dass sie einwandfrei angeschlossen ist). Ich habe auch definitiv die neuesten Treiber installiert.
Was den Monitor angeht, habe ich einen Samsung 1080p-Monitor über VGA angeschlossen (war nur damit ausgestattet und schien gut auszusehen) und einen Sony 1080p-Fernseher über HDMI für Ton und zusätzlichen Platz auf dem Bildschirm, ich spiele jedoch nur auf dem einen Monitor. Beide sind an die Buchsen der Hauptplatine angeschlossen, sodass ich die Software von Intel verwenden könnte, um ihre relativen Positionen usw. zu verwalten. Ich würde jedoch nicht denken, dass dies große Auswirkungen hätte, oder? Ich würde annehmen, dass die Grafikkarte zusätzliche Verarbeitungsleistungen erbringt, egal, was daran angeschlossen ist.
Was tun?
Antwort1
Ich bin ein Idiot und wenn ich nichts an die Grafikkarte anschließe, bedeutet das tatsächlich, dass sie nicht verwendet wird. Lösung: Kaufen Sie ein anderes HDMI-Kabel.
UPDATE: Habe ein HDMI-zu-DVI-Kabel gekauft und die Grafikkarte ist jetzt beim Spielen voll ausgelastet und kann Mirror's Edge bei maximalen Einstellungen ohne merkliche Frame-Probleme ausführen. Nicht gerade ein großer Erfolg, aber es ist das Einzige, was ich im Moment zum Testen habe :P
Ich bin einfach davon ausgegangen, dass die Grafikkarte zusätzliche Grafikverarbeitung bietet, egal wo die Displays angeschlossen sind, und nicht an die Ausgabe auf einem bestimmten Display gebunden ist. Ich glaube, ich habe falsch angenommen.
Antwort2
Interessanterweise dürfte dies nicht zufällig passiert sein.
Lasst uns das niederreißen
1) Sie hatten die Multi-GPU-Unterstützung eingeschaltet (lustigerweise ist dies eine Voraussetzung für Lucid Logix Virtu). Hinzufügen einer diskreten Kartesollenhabe Ihren Onboard-Adapter andernfalls deaktiviert, es sei denn, dies wurde nach Ivy Bridge geändert.
2) Wie Sie herausgefunden haben, war Ihr Monitor an das Motherboard angeschlossen, und da Ihre Monitore auf dieser GPU waren, haben Sie dort gerendert
3) Sienichthabe Lucid Logix installiert (dies war bei vielen älteren Systemen kostenlos dabei und ich habe keine Ahnung, ob Ihr moderneres System es braucht/unterstützt - es ist nicht in der Liste aufgeführtProduktseite) - wodurch Sie bei Bedarf auf Ihrer besseren GPU rendern können, diese andernfalls abschalten und das Ergebnis an Ihre integrierte GPU senden können. Dadurch hätten Sie Spiele möglicherweise tatsächlich so spielen können, wie Sie es erwartet haben.
Also, ja, die „einfache“ Lösung wäre gewesen, einen Anschluss an der Grafikkarte zu verwenden, möglicherweise über einen Adapter.
Sie können zwei Monitore gleichzeitig betreibengetrenntGPUs (ich habe das früher mit älteren Intel-Treibern gemacht, damit ich Quicksync verwenden konnte), aber ich weiß nicht mehr genau, wie das beim Spielen funktioniert. Ich werde die Antwort aktualisieren, wenn ich mir zum Testen ein anderes Display ausleihen kann, aber ich bin sicher, dass Sie bei einigen Spielen auswählen können, welche GPU verwendet werden soll.