인텔 SSD DC P3600 1.2TB 성능

인텔 SSD DC P3600 1.2TB 성능

방금 워크스테이션을 하나 얻었는데인텔 SSD DC P3600 1.2TB아수스 X99-E WS마더보드. 라이브 CD에서 Ubuntu 15.04를 시작하고 디스크( gnome-disks) 애플리케이션을 실행하여 SSD를 벤치마킹했습니다. 디스크는 아래에 마운트됩니다 /dev/nvme0n1. 기본 벤치마크를 실행했는데(전체 디스크에서 무작위로 샘플링된 각각 10MB의 100개 샘플 사용) 결과는 실망스럽습니다. 평균 읽기 속도는 720MB/s, 평균 쓰기 속도는 805MB/s입니다(읽기 속도보다 높음). !?) 평균 액세스 시간은 0.12ms입니다. 또한 디스크가 표시하는 디스크에 대한 유일한 정보는 크기뿐이며 모델 이름이나 기타 정보는 없습니다.

회사 정책으로 인해 이 컴퓨터를 설정하기 전에 네트워크에 연결할 수 없어서 진단 도구를 사용할 수 없습니다.공식 문서) 사전 설치된 것과는 별도로. 문서에는 NVMe 드라이버가 Linux 커널에 사전 설치되어 있고 3.19Ubuntu 15.04에는 3.19.0-15-generic문제가 되지 않는다고 명시되어 있습니다. 그만큼

dd if=/dev/zero of=/dev/nvme0n1 bs=1M oflag=direct

문서의 명령에 따르면 쓰기 속도는 약 620MB/s이고

hdparm -tT --direct /dev/nvme0n1

657MB/s O_DIRECT 캐시 읽기와 664MB/s O_DIRECT 디스크 읽기를 제공합니다.

디스크가 BIOS의 PCIe v3.0 슬롯에 연결된 PCIe 포트를 수정하고 UEFI 부팅을 사용하지 않습니다.

편집 1: PC 공급업체는 다음을 사용하여 SSD를 메인보드에 연결했습니다.P4000 서버 섀시 FUP8X25S3NVDK(2.5인치 NVMe SSD)용 핫스왑 백플레인 PCIe 조합 드라이브 케이지 키트.

장치는 물리적으로 PCIe 3.0 x16 슬롯에 연결되어 있지만 Centos 7 및 Ubuntu 15.04에서는 PCIe 2.0 1.0 x4( PCIe v1.0의 속도인 2.5GT/s)를 lspci사용하는 것으로 표시됩니다 .LnkSta

[user@localhost ~]$ sudo lspci -vvv -s 6:0.0
06:00.0 Non-Volatile memory controller: Intel Corporation PCIe Data Center SSD (rev 01) (prog-if 02 [NVM Express])
    Subsystem: Intel Corporation DC P3600 SSD [2.5" SFF]
    Control: I/O- Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
    Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
    Latency: 0
    Interrupt: pin A routed to IRQ 40
    Region 0: Memory at fb410000 (64-bit, non-prefetchable) [size=16K]
    Expansion ROM at fb400000 [disabled] [size=64K]
    Capabilities: [40] Power Management version 3
        Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
        Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
    Capabilities: [50] MSI-X: Enable+ Count=32 Masked-
        Vector table: BAR=0 offset=00002000
        PBA: BAR=0 offset=00003000
    Capabilities: [60] Express (v2) Endpoint, MSI 00
        DevCap: MaxPayload 256 bytes, PhantFunc 0, Latency L0s <4us, L1 <4us
            ExtTag+ AttnBtn- AttnInd- PwrInd- RBE+ FLReset+
        DevCtl: Report errors: Correctable- Non-Fatal- Fatal- Unsupported-
            RlxdOrd- ExtTag- PhantFunc- AuxPwr- NoSnoop+ FLReset-
            MaxPayload 256 bytes, MaxReadReq 512 bytes
        DevSta: CorrErr- UncorrErr- FatalErr- UnsuppReq- AuxPwr- TransPend-
        LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <4us, L1 <4us
            ClockPM- Surprise- LLActRep- BwNot-
        LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- CommClk-
            ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
        LnkSta: Speed 2.5GT/s, Width x4, TrErr- Train- SlotClk- DLActive- BWMgmt- ABWMgmt-
        DevCap2: Completion Timeout: Range ABCD, TimeoutDis+, LTR-, OBFF Not Supported
        DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis-, LTR-, OBFF Disabled
        LnkCtl2: Target Link Speed: 8GT/s, EnterCompliance- SpeedDis-
             Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
             Compliance De-emphasis: -6dB
        LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete+, EqualizationPhase1-
             EqualizationPhase2-, EqualizationPhase3-, LinkEqualizationRequest-
    Capabilities: [100 v1] Advanced Error Reporting
        UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
        UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
        UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
        CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr-
        CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr+
        AERCap: First Error Pointer: 00, GenCap+ CGenEn- ChkCap+ ChkEn-
    Capabilities: [150 v1] Virtual Channel
        Caps:   LPEVC=0 RefClk=100ns PATEntryBits=1
        Arb:    Fixed- WRR32- WRR64- WRR128-
        Ctrl:   ArbSelect=Fixed
        Status: InProgress-
        VC0:    Caps:   PATOffset=00 MaxTimeSlots=1 RejSnoopTrans-
            Arb:    Fixed- WRR32- WRR64- WRR128- TWRR128- WRR256-
            Ctrl:   Enable+ ID=0 ArbSelect=Fixed TC/VC=01
            Status: NegoPending- InProgress-
    Capabilities: [180 v1] Power Budgeting <?>
    Capabilities: [190 v1] Alternative Routing-ID Interpretation (ARI)
        ARICap: MFVC- ACS-, Next Function: 0
        ARICtl: MFVC- ACS-, Function Group: 0
    Capabilities: [270 v1] Device Serial Number 55-cd-2e-40-4b-fa-80-bc
    Capabilities: [2a0 v1] #19
    Kernel driver in use: nvme

편집 2:

Centos 7에서 드라이브를 테스트했는데 성능은 Ubuntu에서 얻은 것과 동일합니다. 공식 문서에는 인텔이 존재하지 않는 Centos 6.7에서 이 SSD를 테스트했다고 명시되어 있습니다. 대신 6.6 이후 Centos 7이 나왔습니다.

혼란의 또 다른 원인: 벤치마크 결과는 드라이브를 연결하는 물리적 PCIe 슬롯에 따라 다릅니다. 슬롯 1-3은 설명된 성능을 제공하는 반면, 슬롯 4-7에서는 SSD가 100MB/s 더 높은 읽기 속도를 달성합니다.

컴퓨터에 있는 유일한 다른 PCIe 장치는EVGA 엔비디아 GT 210512MB RAM을 갖춘 GPU는 PCIe 2.0 x16 장치로 보이지만 LnkStaPCIe v1.0(2.5GT/s) x8을 나타냅니다.

[user@localhost ~]$ sudo lspci -vvv -s a:0.0
0a:00.0 VGA compatible controller: NVIDIA Corporation GT218 [GeForce 210] (rev a2) (prog-if 00 [VGA controller])
    Subsystem: eVga.com. Corp. Device 1313
    Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
    Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
    Latency: 0
    Interrupt: pin A routed to IRQ 114
    Region 0: Memory at fa000000 (32-bit, non-prefetchable) [size=16M]
    Region 1: Memory at c0000000 (64-bit, prefetchable) [size=256M]
    Region 3: Memory at d0000000 (64-bit, prefetchable) [size=32M]
    Region 5: I/O ports at e000 [size=128]
    Expansion ROM at fb000000 [disabled] [size=512K]
    Capabilities: [60] Power Management version 3
        Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
        Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
    Capabilities: [68] MSI: Enable+ Count=1/1 Maskable- 64bit+
        Address: 00000000fee005f8  Data: 0000
    Capabilities: [78] Express (v2) Endpoint, MSI 00
        DevCap: MaxPayload 128 bytes, PhantFunc 0, Latency L0s unlimited, L1 <64us
            ExtTag+ AttnBtn- AttnInd- PwrInd- RBE+ FLReset-
        DevCtl: Report errors: Correctable- Non-Fatal- Fatal- Unsupported-
            RlxdOrd- ExtTag- PhantFunc- AuxPwr- NoSnoop+
            MaxPayload 128 bytes, MaxReadReq 512 bytes
        DevSta: CorrErr- UncorrErr- FatalErr- UnsuppReq- AuxPwr- TransPend-
        LnkCap: Port #8, Speed 2.5GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <1us, L1 <4us
            ClockPM+ Surprise- LLActRep- BwNot-
        LnkCtl: ASPM Disabled; RCB 128 bytes Disabled- CommClk-
            ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
        LnkSta: Speed 2.5GT/s, Width x8, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
        DevCap2: Completion Timeout: Not Supported, TimeoutDis+, LTR-, OBFF Not Supported
        DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis-, LTR-, OBFF Disabled
        LnkCtl2: Target Link Speed: 2.5GT/s, EnterCompliance- SpeedDis-
             Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
             Compliance De-emphasis: -6dB
        LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete-, EqualizationPhase1-
             EqualizationPhase2-, EqualizationPhase3-, LinkEqualizationRequest-
    Capabilities: [b4] Vendor Specific Information: Len=14 <?>
    Capabilities: [100 v1] Virtual Channel
        Caps:   LPEVC=0 RefClk=100ns PATEntryBits=1
        Arb:    Fixed- WRR32- WRR64- WRR128-
        Ctrl:   ArbSelect=Fixed
        Status: InProgress-
        VC0:    Caps:   PATOffset=00 MaxTimeSlots=1 RejSnoopTrans-
            Arb:    Fixed- WRR32- WRR64- WRR128- TWRR128- WRR256-
            Ctrl:   Enable+ ID=0 ArbSelect=Fixed TC/VC=01
            Status: NegoPending- InProgress-
    Capabilities: [128 v1] Power Budgeting <?>
    Capabilities: [600 v1] Vendor Specific Information: ID=0001 Rev=1 Len=024 <?>
    Kernel driver in use: nouveau

편집 3:

이제 워크스테이션을 네트워크에 연결하고 Intel의 솔리드 스테이트 드라이브 데이터 센터 도구( isdct)를 설치하고 펌웨어를 업데이트했지만 벤치마크 결과는 변경되지 않았습니다. 흥미로운 점은 출력입니다.

[user@localhost ~]$ sudo isdct show -a -intelssd 
ls: cannot access /dev/sg*: No such file or directory
- IntelSSD CVMD5130002L1P2HGN -
AggregationThreshold: 0
Aggregation Time: 0
ArbitrationBurst: 0
AsynchronousEventConfiguration: 0
Bootloader: 8B1B012F
DevicePath: /dev/nvme0n1
DeviceStatus: Healthy
EnduranceAnalyzer: 17.22 Years
ErrorString: 
Firmware: 8DV10151
FirmwareUpdateAvailable: Firmware is up to date as of this tool release.
HighPriorityWeightArbitration: 0
Index: 0
IOCompletionQueuesRequested: 30
IOSubmissionQueuesRequested: 30
LBAFormat: 0
LowPriorityWeightArbitration: 0
ProductFamily: Intel SSD DC P3600 Series
MaximumLBA: 2344225967
MediumPriorityWeightArbitration: 0
MetadataSetting: 0
ModelNumber: INTEL SSDPE2ME012T4
NativeMaxLBA: 2344225967
NumErrorLogPageEntries: 63
NumLBAFormats: 6
NVMePowerState: 0
PCILinkGenSpeed: 1
PCILinkWidth: 4
PhysicalSize: 1200243695616
PowerGovernorMode: 0 (25W)
ProtectionInformation: 0
ProtectionInformationLocation: 0
RAIDMember: False
SectorSize: 512
SerialNumber: CVMD5130002L1P2HGN
SystemTrimEnabled: 
TempThreshold: 85 degree C
TimeLimitedErrorRecovery: 0
TrimSupported: True
WriteAtomicityDisableNormal: 0

PCILinkGenSpeed구체적으로는 1과 4로 나열됩니다 . 0이 PCILinkWidth무엇을 의미하는지 알지 못했습니다 NVMePowerState.

내 질문:

  1. SSD를 PCIe v3.0 x4 속도로 실행하려면 어떻게 해야 합니까?

답변1

이는 하드웨어 문제입니다.

P4000 서버 섀시 FUP8X25S3NVDK(2.5인치 NVMe SSD)용 핫스왑 백플레인 PCIe 조합 드라이브 케이지 키트가 Asus X99-E WS 마더보드와 호환되지 않는 것 같습니다. 해결책은 Asus HyperKit을 사용하여 SSD를 연결하는 것입니다. 그러나 이 솔루션을 사용하려면 HyperKit과 SSD 사이에 케이블이 필요합니다. 이 케이블은 번들로 제공되지 않으며 현재 구매할 수도 없습니다. 이러한 케이블은 Intel SSD 750 시리즈(2.5' 폼 팩터)와 함께 번들로 제공되며 당사 공급업체는 특별 서비스로 케이블을 제공할 수 있었습니다.

하드웨어 비호환 문제에 주의하세요.

관련 정보