InfiniBand 성능을 통한 iSCSI TGTD

InfiniBand 성능을 통한 iSCSI TGTD

내 가상 머신, 특히 데이터베이스 서버의 백엔드 스토리지에 대한 대역폭을 늘리기 위해 서버 간 4x SDR InfiniBand 링크를 구성했습니다. CentOS 6에서 TGTD와 함께 iSCSI를 사용하고 있으며 iperf로 테스트할 때 IPoIB를 사용하여 약 6.45Gbps를 달성할 수 있습니다.

SSD에 약 260MB/s 쓰기를 달성할 수 있는 지점까지 iSCSI 개시자와 대상을 조정했습니다. 그러나 로컬에서 약 500-600MB/s로 쓸 수 있다는 점을 고려하면 이는 여전히 최적의 쓰기 속도가 아닙니다.

현재 사용하고 있는 매개변수는 다음과 같습니다.

  • MaxRecvDataSegmentLength 4194304
  • MaxXmitDataSegmentLength 524288
  • MaxBurst길이 4194304
  • FirstBurst길이 262144
  • MaxOutstandingUnexpectedPDU=0
  • MaxOutstandingR2T=1
  • 최대 명령=256
  • 대기열 깊이=128

이것을 튜닝해본 경험이 있는 사람이 있나요? 구성을 변경하면 이보다 더 높은 값을 얻을 수 있습니까? 두 장치에서 RAID 0을 수행하더라도 여전히 더 높은 대역폭을 기대했던 것과 동일한 대역폭만 얻을 수 있습니다.

답변1

얻은 결과는 현재 설정에서 합리적으로 예상할 수 있습니다. iser운송 모드를 사용하면 추가 성능 향상을 얻을 수 있습니다 .

구성 팁README.iser

표적:

    ./tgtadm --lld iser --mode target \
             --op new --tid 1 --targetname "iqn.$(hostname).t1"
    ./tgtadm --lld iser --mode target \
             --op bind --tid 1 --initiator-address ALL
    ./tgtadm --lld iser --mode logicalunit \
             --op new --tid 1 --lun 1 \ --backing-store /dev/sde
             --bstype rdwr

창시자:

    iscsiadm -m discovery -t sendtargets -p $targe
    iscsiadm -m node -p $targetip -T $targetname --op update \
        -n node.transport_name -v iser
    iscsiadm -m node -p $targetip -T $targetname --login

관련 유용한 SF 질문:간단한 Infiniband Block Storage(SRP 또는 iSER) 설정.

관련 정보