Ich habe gerade eine Workstation mit einemIntel SSD DC P3600 1,2 TBauf einerAsus X99-E WSHauptplatine. Ich habe Ubuntu 15.04 von einer Live-CD gestartet und die gnome-disks
Anwendung Disks ( ) ausgeführt, um die SSD zu benchmarken. Die Festplatte ist unter gemountet /dev/nvme0n1
. Ich habe den Standard-Benchmark ausgeführt (mit 100 Samples von jeweils 10 MB, zufällig von der gesamten Festplatte abgetastet) und die Ergebnisse sind enttäuschend: Die durchschnittliche Leserate beträgt 720 MB/s, die durchschnittliche Schreibrate 805 MB/s (höher als die Leserate!?) und die durchschnittliche Zugriffszeit beträgt 0,12 ms. Darüber hinaus ist die einzige Information über die Festplatte, die Disks anzeigt, ihre Größe – es gibt keinen Modellnamen oder andere Informationen.
Aufgrund der Unternehmensrichtlinie kann ich diesen Rechner nicht mit dem Netzwerk verbinden, bevor er eingerichtet ist. Daher kann ich keine Diagnosetools verwenden (ich wollte denamtliche Dokumentation) abgesehen von dem, was vorinstalliert ist. In der Dokumentation steht, dass der NVMe-Treiber im Linux-Kernel vorinstalliert ist 3.19
und Ubuntu 15.04 hat, 3.19.0-15-generic
also sollte das nicht das Problem sein. Der
dd if=/dev/zero of=/dev/nvme0n1 bs=1M oflag=direct
Der Befehl aus der Dokumentation gibt mir eine Schreibrate von ca. 620 MB/s und
hdparm -tT --direct /dev/nvme0n1
ergibt 657 MB/s O_DIRECT-Cache-Lesevorgänge und 664 MB/s O_DIRECT-Festplatten-Lesevorgänge.
Ich habe den PCIe-Port, an den die Festplatte angeschlossen ist, im BIOS auf einen PCIe v3.0-Steckplatz festgelegt und verwende keinen UEFI-Boot.
Bearbeitung 1: Der PC-Hersteller hat die SSD über eineHot-Swap-Backplane-PCIe-Kombinationslaufwerkskäfig-Kit für P4000-Servergehäuse FUP8X25S3NVDK (2,5-Zoll-NVMe-SSD).
Das Gerät ist physisch an einen PCIe 3.0 x16-Steckplatz angeschlossen, lspci
unter Centos 7 und Ubuntu 15.04 wird es jedoch als PCIe 2.0 1.0 x4-Benutzer aufgeführt ( LnkSta
das sind 2,5 GT/s, was der Geschwindigkeit von PCIe v1.0 entspricht):
[user@localhost ~]$ sudo lspci -vvv -s 6:0.0
06:00.0 Non-Volatile memory controller: Intel Corporation PCIe Data Center SSD (rev 01) (prog-if 02 [NVM Express])
Subsystem: Intel Corporation DC P3600 SSD [2.5" SFF]
Control: I/O- Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
Latency: 0
Interrupt: pin A routed to IRQ 40
Region 0: Memory at fb410000 (64-bit, non-prefetchable) [size=16K]
Expansion ROM at fb400000 [disabled] [size=64K]
Capabilities: [40] Power Management version 3
Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
Capabilities: [50] MSI-X: Enable+ Count=32 Masked-
Vector table: BAR=0 offset=00002000
PBA: BAR=0 offset=00003000
Capabilities: [60] Express (v2) Endpoint, MSI 00
DevCap: MaxPayload 256 bytes, PhantFunc 0, Latency L0s <4us, L1 <4us
ExtTag+ AttnBtn- AttnInd- PwrInd- RBE+ FLReset+
DevCtl: Report errors: Correctable- Non-Fatal- Fatal- Unsupported-
RlxdOrd- ExtTag- PhantFunc- AuxPwr- NoSnoop+ FLReset-
MaxPayload 256 bytes, MaxReadReq 512 bytes
DevSta: CorrErr- UncorrErr- FatalErr- UnsuppReq- AuxPwr- TransPend-
LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <4us, L1 <4us
ClockPM- Surprise- LLActRep- BwNot-
LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- CommClk-
ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
LnkSta: Speed 2.5GT/s, Width x4, TrErr- Train- SlotClk- DLActive- BWMgmt- ABWMgmt-
DevCap2: Completion Timeout: Range ABCD, TimeoutDis+, LTR-, OBFF Not Supported
DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis-, LTR-, OBFF Disabled
LnkCtl2: Target Link Speed: 8GT/s, EnterCompliance- SpeedDis-
Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
Compliance De-emphasis: -6dB
LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete+, EqualizationPhase1-
EqualizationPhase2-, EqualizationPhase3-, LinkEqualizationRequest-
Capabilities: [100 v1] Advanced Error Reporting
UESta: DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
UEMsk: DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
CESta: RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr-
CEMsk: RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr+
AERCap: First Error Pointer: 00, GenCap+ CGenEn- ChkCap+ ChkEn-
Capabilities: [150 v1] Virtual Channel
Caps: LPEVC=0 RefClk=100ns PATEntryBits=1
Arb: Fixed- WRR32- WRR64- WRR128-
Ctrl: ArbSelect=Fixed
Status: InProgress-
VC0: Caps: PATOffset=00 MaxTimeSlots=1 RejSnoopTrans-
Arb: Fixed- WRR32- WRR64- WRR128- TWRR128- WRR256-
Ctrl: Enable+ ID=0 ArbSelect=Fixed TC/VC=01
Status: NegoPending- InProgress-
Capabilities: [180 v1] Power Budgeting <?>
Capabilities: [190 v1] Alternative Routing-ID Interpretation (ARI)
ARICap: MFVC- ACS-, Next Function: 0
ARICtl: MFVC- ACS-, Function Group: 0
Capabilities: [270 v1] Device Serial Number 55-cd-2e-40-4b-fa-80-bc
Capabilities: [2a0 v1] #19
Kernel driver in use: nvme
Bearbeitung 2:
Ich habe das Laufwerk unter Centos 7 getestet und die Leistung ist identisch mit der unter Ubuntu. Ich muss erwähnen, dass in der offiziellen Dokumentation steht, dass Intel diese SSD unter Centos 6.7 getestet hat, was es anscheinend nicht gibt. Stattdessen kam nach 6.6 Centos 7.
Eine weitere Quelle der Verwirrung: Die Benchmark-Ergebnisse variieren je nach physischem PCIe-Steckplatz, an den ich das Laufwerk anschließe. Die Steckplätze 1-3 liefern die beschriebene Leistung, während die SSD in den Steckplätzen 4-7 eine um 100 MB/s höhere Lesegeschwindigkeit erreicht.
Das einzige andere PCIe-Gerät im Computer ist einEVGA Nvidia GT 210GPU mit 512 MB RAM, die ein PCIe 2.0 x16-Gerät zu sein scheint, jedoch LnkSta
PCIe v1.0 (2,5 GT/s) x8 anzeigt:
[user@localhost ~]$ sudo lspci -vvv -s a:0.0
0a:00.0 VGA compatible controller: NVIDIA Corporation GT218 [GeForce 210] (rev a2) (prog-if 00 [VGA controller])
Subsystem: eVga.com. Corp. Device 1313
Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
Latency: 0
Interrupt: pin A routed to IRQ 114
Region 0: Memory at fa000000 (32-bit, non-prefetchable) [size=16M]
Region 1: Memory at c0000000 (64-bit, prefetchable) [size=256M]
Region 3: Memory at d0000000 (64-bit, prefetchable) [size=32M]
Region 5: I/O ports at e000 [size=128]
Expansion ROM at fb000000 [disabled] [size=512K]
Capabilities: [60] Power Management version 3
Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
Capabilities: [68] MSI: Enable+ Count=1/1 Maskable- 64bit+
Address: 00000000fee005f8 Data: 0000
Capabilities: [78] Express (v2) Endpoint, MSI 00
DevCap: MaxPayload 128 bytes, PhantFunc 0, Latency L0s unlimited, L1 <64us
ExtTag+ AttnBtn- AttnInd- PwrInd- RBE+ FLReset-
DevCtl: Report errors: Correctable- Non-Fatal- Fatal- Unsupported-
RlxdOrd- ExtTag- PhantFunc- AuxPwr- NoSnoop+
MaxPayload 128 bytes, MaxReadReq 512 bytes
DevSta: CorrErr- UncorrErr- FatalErr- UnsuppReq- AuxPwr- TransPend-
LnkCap: Port #8, Speed 2.5GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <1us, L1 <4us
ClockPM+ Surprise- LLActRep- BwNot-
LnkCtl: ASPM Disabled; RCB 128 bytes Disabled- CommClk-
ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
LnkSta: Speed 2.5GT/s, Width x8, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
DevCap2: Completion Timeout: Not Supported, TimeoutDis+, LTR-, OBFF Not Supported
DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis-, LTR-, OBFF Disabled
LnkCtl2: Target Link Speed: 2.5GT/s, EnterCompliance- SpeedDis-
Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
Compliance De-emphasis: -6dB
LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete-, EqualizationPhase1-
EqualizationPhase2-, EqualizationPhase3-, LinkEqualizationRequest-
Capabilities: [b4] Vendor Specific Information: Len=14 <?>
Capabilities: [100 v1] Virtual Channel
Caps: LPEVC=0 RefClk=100ns PATEntryBits=1
Arb: Fixed- WRR32- WRR64- WRR128-
Ctrl: ArbSelect=Fixed
Status: InProgress-
VC0: Caps: PATOffset=00 MaxTimeSlots=1 RejSnoopTrans-
Arb: Fixed- WRR32- WRR64- WRR128- TWRR128- WRR256-
Ctrl: Enable+ ID=0 ArbSelect=Fixed TC/VC=01
Status: NegoPending- InProgress-
Capabilities: [128 v1] Power Budgeting <?>
Capabilities: [600 v1] Vendor Specific Information: ID=0001 Rev=1 Len=024 <?>
Kernel driver in use: nouveau
Bearbeitung 3:
Ich habe die Workstation nun an das Netzwerk angeschlossen, Intels Solid-State Drive Data Center Tool ( isdct
) installiert und die Firmware aktualisiert, aber die Benchmark-Ergebnisse haben sich nicht geändert. Interessant ist die Ausgabe:
[user@localhost ~]$ sudo isdct show -a -intelssd
ls: cannot access /dev/sg*: No such file or directory
- IntelSSD CVMD5130002L1P2HGN -
AggregationThreshold: 0
Aggregation Time: 0
ArbitrationBurst: 0
AsynchronousEventConfiguration: 0
Bootloader: 8B1B012F
DevicePath: /dev/nvme0n1
DeviceStatus: Healthy
EnduranceAnalyzer: 17.22 Years
ErrorString:
Firmware: 8DV10151
FirmwareUpdateAvailable: Firmware is up to date as of this tool release.
HighPriorityWeightArbitration: 0
Index: 0
IOCompletionQueuesRequested: 30
IOSubmissionQueuesRequested: 30
LBAFormat: 0
LowPriorityWeightArbitration: 0
ProductFamily: Intel SSD DC P3600 Series
MaximumLBA: 2344225967
MediumPriorityWeightArbitration: 0
MetadataSetting: 0
ModelNumber: INTEL SSDPE2ME012T4
NativeMaxLBA: 2344225967
NumErrorLogPageEntries: 63
NumLBAFormats: 6
NVMePowerState: 0
PCILinkGenSpeed: 1
PCILinkWidth: 4
PhysicalSize: 1200243695616
PowerGovernorMode: 0 (25W)
ProtectionInformation: 0
ProtectionInformationLocation: 0
RAIDMember: False
SectorSize: 512
SerialNumber: CVMD5130002L1P2HGN
SystemTrimEnabled:
TempThreshold: 85 degree C
TimeLimitedErrorRecovery: 0
TrimSupported: True
WriteAtomicityDisableNormal: 0
PCILinkGenSpeed
Genauer gesagt wird es als 1 und als 4 aufgeführt PCILinkWidth
. Ich habe nicht herausgefunden, was NVMePowerState
0 bedeutet.
Meine Fragen:
- Wie kann ich die SSD mit PCIe v3.0 x4-Geschwindigkeit betreiben?
Antwort1
Dies ist ein Hardwareproblem.
Das Hot-Swap-Backplane-PCIe-Kombinations-Laufwerkkäfig-Kit für das P4000-Servergehäuse FUP8X25S3NVDK (2,5-Zoll-NVMe-SSD) scheint mit dem Asus X99-E WS-Motherboard nicht kompatibel zu sein. Die Lösung besteht darin, die SSD über Asus HyperKit anzuschließen. Diese Lösung erfordert jedoch ein Kabel zwischen HyperKit und SSD, das bei keinem dieser Kabel im Lieferumfang enthalten ist und derzeit auch nicht zum Kauf angeboten wird. Ein solches Kabel ist im Lieferumfang der Intel SSD 750-Serie (2,5-Zoll-Formfaktor) enthalten und unser Lieferant konnte eines als Sonderservice liefern.
Achten Sie auf Hardware-Inkompatibilitätsprobleme.