Intel SSD DC P3600 1,2 TB Leistung

Intel SSD DC P3600 1,2 TB Leistung

Ich habe gerade eine Workstation mit einemIntel SSD DC P3600 1,2 TBauf einerAsus X99-E WSHauptplatine. Ich habe Ubuntu 15.04 von einer Live-CD gestartet und die gnome-disksAnwendung Disks ( ) ausgeführt, um die SSD zu benchmarken. Die Festplatte ist unter gemountet /dev/nvme0n1. Ich habe den Standard-Benchmark ausgeführt (mit 100 Samples von jeweils 10 MB, zufällig von der gesamten Festplatte abgetastet) und die Ergebnisse sind enttäuschend: Die durchschnittliche Leserate beträgt 720 MB/s, die durchschnittliche Schreibrate 805 MB/s (höher als die Leserate!?) und die durchschnittliche Zugriffszeit beträgt 0,12 ms. Darüber hinaus ist die einzige Information über die Festplatte, die Disks anzeigt, ihre Größe – es gibt keinen Modellnamen oder andere Informationen.

Aufgrund der Unternehmensrichtlinie kann ich diesen Rechner nicht mit dem Netzwerk verbinden, bevor er eingerichtet ist. Daher kann ich keine Diagnosetools verwenden (ich wollte denamtliche Dokumentation) abgesehen von dem, was vorinstalliert ist. In der Dokumentation steht, dass der NVMe-Treiber im Linux-Kernel vorinstalliert ist 3.19und Ubuntu 15.04 hat, 3.19.0-15-genericalso sollte das nicht das Problem sein. Der

dd if=/dev/zero of=/dev/nvme0n1 bs=1M oflag=direct

Der Befehl aus der Dokumentation gibt mir eine Schreibrate von ca. 620 MB/s und

hdparm -tT --direct /dev/nvme0n1

ergibt 657 MB/s O_DIRECT-Cache-Lesevorgänge und 664 MB/s O_DIRECT-Festplatten-Lesevorgänge.

Ich habe den PCIe-Port, an den die Festplatte angeschlossen ist, im BIOS auf einen PCIe v3.0-Steckplatz festgelegt und verwende keinen UEFI-Boot.

Bearbeitung 1: Der PC-Hersteller hat die SSD über eineHot-Swap-Backplane-PCIe-Kombinationslaufwerkskäfig-Kit für P4000-Servergehäuse FUP8X25S3NVDK (2,5-Zoll-NVMe-SSD).

Das Gerät ist physisch an einen PCIe 3.0 x16-Steckplatz angeschlossen, lspciunter Centos 7 und Ubuntu 15.04 wird es jedoch als PCIe 2.0 1.0 x4-Benutzer aufgeführt ( LnkStadas sind 2,5 GT/s, was der Geschwindigkeit von PCIe v1.0 entspricht):

[user@localhost ~]$ sudo lspci -vvv -s 6:0.0
06:00.0 Non-Volatile memory controller: Intel Corporation PCIe Data Center SSD (rev 01) (prog-if 02 [NVM Express])
    Subsystem: Intel Corporation DC P3600 SSD [2.5" SFF]
    Control: I/O- Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
    Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
    Latency: 0
    Interrupt: pin A routed to IRQ 40
    Region 0: Memory at fb410000 (64-bit, non-prefetchable) [size=16K]
    Expansion ROM at fb400000 [disabled] [size=64K]
    Capabilities: [40] Power Management version 3
        Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
        Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
    Capabilities: [50] MSI-X: Enable+ Count=32 Masked-
        Vector table: BAR=0 offset=00002000
        PBA: BAR=0 offset=00003000
    Capabilities: [60] Express (v2) Endpoint, MSI 00
        DevCap: MaxPayload 256 bytes, PhantFunc 0, Latency L0s <4us, L1 <4us
            ExtTag+ AttnBtn- AttnInd- PwrInd- RBE+ FLReset+
        DevCtl: Report errors: Correctable- Non-Fatal- Fatal- Unsupported-
            RlxdOrd- ExtTag- PhantFunc- AuxPwr- NoSnoop+ FLReset-
            MaxPayload 256 bytes, MaxReadReq 512 bytes
        DevSta: CorrErr- UncorrErr- FatalErr- UnsuppReq- AuxPwr- TransPend-
        LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <4us, L1 <4us
            ClockPM- Surprise- LLActRep- BwNot-
        LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- CommClk-
            ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
        LnkSta: Speed 2.5GT/s, Width x4, TrErr- Train- SlotClk- DLActive- BWMgmt- ABWMgmt-
        DevCap2: Completion Timeout: Range ABCD, TimeoutDis+, LTR-, OBFF Not Supported
        DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis-, LTR-, OBFF Disabled
        LnkCtl2: Target Link Speed: 8GT/s, EnterCompliance- SpeedDis-
             Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
             Compliance De-emphasis: -6dB
        LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete+, EqualizationPhase1-
             EqualizationPhase2-, EqualizationPhase3-, LinkEqualizationRequest-
    Capabilities: [100 v1] Advanced Error Reporting
        UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
        UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
        UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
        CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr-
        CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr+
        AERCap: First Error Pointer: 00, GenCap+ CGenEn- ChkCap+ ChkEn-
    Capabilities: [150 v1] Virtual Channel
        Caps:   LPEVC=0 RefClk=100ns PATEntryBits=1
        Arb:    Fixed- WRR32- WRR64- WRR128-
        Ctrl:   ArbSelect=Fixed
        Status: InProgress-
        VC0:    Caps:   PATOffset=00 MaxTimeSlots=1 RejSnoopTrans-
            Arb:    Fixed- WRR32- WRR64- WRR128- TWRR128- WRR256-
            Ctrl:   Enable+ ID=0 ArbSelect=Fixed TC/VC=01
            Status: NegoPending- InProgress-
    Capabilities: [180 v1] Power Budgeting <?>
    Capabilities: [190 v1] Alternative Routing-ID Interpretation (ARI)
        ARICap: MFVC- ACS-, Next Function: 0
        ARICtl: MFVC- ACS-, Function Group: 0
    Capabilities: [270 v1] Device Serial Number 55-cd-2e-40-4b-fa-80-bc
    Capabilities: [2a0 v1] #19
    Kernel driver in use: nvme

Bearbeitung 2:

Ich habe das Laufwerk unter Centos 7 getestet und die Leistung ist identisch mit der unter Ubuntu. Ich muss erwähnen, dass in der offiziellen Dokumentation steht, dass Intel diese SSD unter Centos 6.7 getestet hat, was es anscheinend nicht gibt. Stattdessen kam nach 6.6 Centos 7.

Eine weitere Quelle der Verwirrung: Die Benchmark-Ergebnisse variieren je nach physischem PCIe-Steckplatz, an den ich das Laufwerk anschließe. Die Steckplätze 1-3 liefern die beschriebene Leistung, während die SSD in den Steckplätzen 4-7 eine um 100 MB/s höhere Lesegeschwindigkeit erreicht.

Das einzige andere PCIe-Gerät im Computer ist einEVGA Nvidia GT 210GPU mit 512 MB RAM, die ein PCIe 2.0 x16-Gerät zu sein scheint, jedoch LnkStaPCIe v1.0 (2,5 GT/s) x8 anzeigt:

[user@localhost ~]$ sudo lspci -vvv -s a:0.0
0a:00.0 VGA compatible controller: NVIDIA Corporation GT218 [GeForce 210] (rev a2) (prog-if 00 [VGA controller])
    Subsystem: eVga.com. Corp. Device 1313
    Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
    Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
    Latency: 0
    Interrupt: pin A routed to IRQ 114
    Region 0: Memory at fa000000 (32-bit, non-prefetchable) [size=16M]
    Region 1: Memory at c0000000 (64-bit, prefetchable) [size=256M]
    Region 3: Memory at d0000000 (64-bit, prefetchable) [size=32M]
    Region 5: I/O ports at e000 [size=128]
    Expansion ROM at fb000000 [disabled] [size=512K]
    Capabilities: [60] Power Management version 3
        Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
        Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
    Capabilities: [68] MSI: Enable+ Count=1/1 Maskable- 64bit+
        Address: 00000000fee005f8  Data: 0000
    Capabilities: [78] Express (v2) Endpoint, MSI 00
        DevCap: MaxPayload 128 bytes, PhantFunc 0, Latency L0s unlimited, L1 <64us
            ExtTag+ AttnBtn- AttnInd- PwrInd- RBE+ FLReset-
        DevCtl: Report errors: Correctable- Non-Fatal- Fatal- Unsupported-
            RlxdOrd- ExtTag- PhantFunc- AuxPwr- NoSnoop+
            MaxPayload 128 bytes, MaxReadReq 512 bytes
        DevSta: CorrErr- UncorrErr- FatalErr- UnsuppReq- AuxPwr- TransPend-
        LnkCap: Port #8, Speed 2.5GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <1us, L1 <4us
            ClockPM+ Surprise- LLActRep- BwNot-
        LnkCtl: ASPM Disabled; RCB 128 bytes Disabled- CommClk-
            ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
        LnkSta: Speed 2.5GT/s, Width x8, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
        DevCap2: Completion Timeout: Not Supported, TimeoutDis+, LTR-, OBFF Not Supported
        DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis-, LTR-, OBFF Disabled
        LnkCtl2: Target Link Speed: 2.5GT/s, EnterCompliance- SpeedDis-
             Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
             Compliance De-emphasis: -6dB
        LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete-, EqualizationPhase1-
             EqualizationPhase2-, EqualizationPhase3-, LinkEqualizationRequest-
    Capabilities: [b4] Vendor Specific Information: Len=14 <?>
    Capabilities: [100 v1] Virtual Channel
        Caps:   LPEVC=0 RefClk=100ns PATEntryBits=1
        Arb:    Fixed- WRR32- WRR64- WRR128-
        Ctrl:   ArbSelect=Fixed
        Status: InProgress-
        VC0:    Caps:   PATOffset=00 MaxTimeSlots=1 RejSnoopTrans-
            Arb:    Fixed- WRR32- WRR64- WRR128- TWRR128- WRR256-
            Ctrl:   Enable+ ID=0 ArbSelect=Fixed TC/VC=01
            Status: NegoPending- InProgress-
    Capabilities: [128 v1] Power Budgeting <?>
    Capabilities: [600 v1] Vendor Specific Information: ID=0001 Rev=1 Len=024 <?>
    Kernel driver in use: nouveau

Bearbeitung 3:

Ich habe die Workstation nun an das Netzwerk angeschlossen, Intels Solid-State Drive Data Center Tool ( isdct) installiert und die Firmware aktualisiert, aber die Benchmark-Ergebnisse haben sich nicht geändert. Interessant ist die Ausgabe:

[user@localhost ~]$ sudo isdct show -a -intelssd 
ls: cannot access /dev/sg*: No such file or directory
- IntelSSD CVMD5130002L1P2HGN -
AggregationThreshold: 0
Aggregation Time: 0
ArbitrationBurst: 0
AsynchronousEventConfiguration: 0
Bootloader: 8B1B012F
DevicePath: /dev/nvme0n1
DeviceStatus: Healthy
EnduranceAnalyzer: 17.22 Years
ErrorString: 
Firmware: 8DV10151
FirmwareUpdateAvailable: Firmware is up to date as of this tool release.
HighPriorityWeightArbitration: 0
Index: 0
IOCompletionQueuesRequested: 30
IOSubmissionQueuesRequested: 30
LBAFormat: 0
LowPriorityWeightArbitration: 0
ProductFamily: Intel SSD DC P3600 Series
MaximumLBA: 2344225967
MediumPriorityWeightArbitration: 0
MetadataSetting: 0
ModelNumber: INTEL SSDPE2ME012T4
NativeMaxLBA: 2344225967
NumErrorLogPageEntries: 63
NumLBAFormats: 6
NVMePowerState: 0
PCILinkGenSpeed: 1
PCILinkWidth: 4
PhysicalSize: 1200243695616
PowerGovernorMode: 0 (25W)
ProtectionInformation: 0
ProtectionInformationLocation: 0
RAIDMember: False
SectorSize: 512
SerialNumber: CVMD5130002L1P2HGN
SystemTrimEnabled: 
TempThreshold: 85 degree C
TimeLimitedErrorRecovery: 0
TrimSupported: True
WriteAtomicityDisableNormal: 0

PCILinkGenSpeedGenauer gesagt wird es als 1 und als 4 aufgeführt PCILinkWidth. Ich habe nicht herausgefunden, was NVMePowerState0 bedeutet.

Meine Fragen:

  1. Wie kann ich die SSD mit PCIe v3.0 x4-Geschwindigkeit betreiben?

Antwort1

Dies ist ein Hardwareproblem.

Das Hot-Swap-Backplane-PCIe-Kombinations-Laufwerkkäfig-Kit für das P4000-Servergehäuse FUP8X25S3NVDK (2,5-Zoll-NVMe-SSD) scheint mit dem Asus X99-E WS-Motherboard nicht kompatibel zu sein. Die Lösung besteht darin, die SSD über Asus HyperKit anzuschließen. Diese Lösung erfordert jedoch ein Kabel zwischen HyperKit und SSD, das bei keinem dieser Kabel im Lieferumfang enthalten ist und derzeit auch nicht zum Kauf angeboten wird. Ein solches Kabel ist im Lieferumfang der Intel SSD 750-Serie (2,5-Zoll-Formfaktor) enthalten und unser Lieferant konnte eines als Sonderservice liefern.

Achten Sie auf Hardware-Inkompatibilitätsprobleme.

verwandte Informationen