Ich arbeite im Bereich Deep Learning und versuche, einen Engpass in unserer GPU-Pipeline zu identifizieren.
Wir führen Ubuntu auf einem Intel Xeon-Motherboard mit 4 NVIDIA Titan RTXs aus. Die GPU-Auslastung scheint, gemessen mit nvidia-smi, ziemlich niedrig zu sein, obwohl die GPU-Speichernutzung bei etwa 97 % liegt.
Ich versuche also herauszufinden, ob der Bus der Engpass ist.
Ich habe heruntergeladenPCMund ich führe es aus, um den PCIe 3.0 x16-Verkehr zu überwachen.
Processor Counter Monitor: PCIe Bandwidth Monitoring Utility
This utility measures PCIe bandwidth in real-time
PCIe event definitions (each event counts as a transfer):
PCIe read events (PCI devices reading from memory - application writes to disk/network/PCIe device):
PCIeRdCur* - PCIe read current transfer (full cache line)
On Haswell Server PCIeRdCur counts both full/partial cache lines
RFO* - Demand Data RFO
CRd* - Demand Code Read
DRd - Demand Data Read
PCIe write events (PCI devices writing to memory - application reads from disk/network/PCIe device):
ItoM - PCIe write full cache line
RFO - PCIe partial Write
CPU MMIO events (CPU reading/writing to PCIe devices):
PRd - MMIO Read [Haswell Server only] (Partial Cache Line)
WiL - MMIO Write (Full/Partial)
...
Socket 0: 2 memory controllers detected with total number of 6 channels. 3 QPI ports detected. 2 M2M (mesh to memory) blocks detected.
Socket 1: 2 memory controllers detected with total number of 6 channels. 3 QPI ports detected. 2 M2M (mesh to memory) blocks detected.
Trying to use Linux perf events...
Successfully programmed on-core PMU using Linux perf
Link 3 is disabled
Link 3 is disabled
Socket 0
Max QPI link 0 speed: 23.3 GBytes/second (10.4 GT/second)
Max QPI link 1 speed: 23.3 GBytes/second (10.4 GT/second)
Socket 1
Max QPI link 0 speed: 23.3 GBytes/second (10.4 GT/second)
Max QPI link 1 speed: 23.3 GBytes/second (10.4 GT/second)
Detected Intel(R) Xeon(R) Gold 5122 CPU @ 3.60GHz "Intel(r) microarchitecture codename Skylake-SP" stepping 4 microcode level 0x200004d
Update every 1.0 seconds
delay_ms: 54
Skt | PCIeRdCur | RFO | CRd | DRd | ItoM | PRd | WiL
0 13 K 19 K 0 0 220 K 84 588
1 0 3024 0 0 0 0 264
-----------------------------------------------------------------------
* 13 K 22 K 0 0 220 K 84 852
Ignorieren Sie für einen Moment die tatsächlichen Werte. Ich habe viel größere Werte. :-)
Wie berechne ich die Laufzeitbandbreite des PCIe-Sockels mit Process Control Monitor?
Warum sind nur zwei Sockel aufgeführt?
Antwort1
Ausgithub opcm:
Sockel bezieht sich auf CPU-Sockel, nicht auf PCIe-Steckplätze oder -Geräte. Sie haben ein System mit 2 CPU-Sockeln, richtig? Die Ausgabe von --help beschreibt den Schalter -B, um die Bandbreite pro CPU-Sockel auszugeben (siehe auch den Vorbehalt hier bei Teiloperationen). pci-iio.x ist ein anderes Dienstprogramm, das die Bandbreite pro PCIe-Gerät anzeigt.