
우리는 실제로 두 사이트 간 SnapMirror를 사용하여 복제를 가속화하기 위해 Riverbed Steelheads를 테스트하고 있습니다.
사이트 간 거리는 100km입니다. 연결: 150Mbit MPLS 네트워크
시스템: FAS6080(소스) 및 FAS3160(대상)(ONTAP 7.3.4 포함)
SnapMirror는 다음과 같이 구성됩니다(snapmirror.conf):
FAS6080 = 멀티 (10.128.85.43,10.128.136.15) (10.128.33.68,10.128.136.15)
FAS6080:/vol/M0P_DB/sapdata FAS3160:/vol/sm_M0P_DB_dbp_test/sapdata kbs=15360,wsize=4194304 15 2,6,10,14,18,22 * *
NetApp의 네트워크는 다음과 같습니다.
mvif: flags=0xa2d08863 mtu 1500 ether 02:a0:98:0f:30:fe (가상 인터페이스 활성화)
mvif-1604: flags=0x6948863 mtu 1500 inet 10.128.85.43 netmask 0xffffff00 Broadcast 10.128.85.255 파트너 mvif-1604(사용하지 않음) ether 02:a0:98:0f:30:fe(가상 인터페이스 활성화됨)
mvif-1610:flags=0x6948863 mtu 1500 inet 10.128.33.68 netmask 0xffffffc0 Broadcast 10.128.33.127 파트너 mvif-1610(사용하지 않음) ether 02:a0:98:0f:30:fe(가상 인터페이스 활성화됨)
복제를 최적화하기 위해 제가 잊어버린 특별한 구성이 있는지 아는 사람이 있습니까?
문제는 이전에는 복제 속도가 8Mb/s였지만 지금은 16Mb/s라는 것입니다. Peek은 20입니다! 그것도 충분하지 않은데 어디서 나온 것인지 알 수 없습니다...
도움을 주셔서 미리 감사드립니다!
답변1
어떤 강바닥 모델을 사용하고 있나요?
- Riverbed의 경우 일반적인 경험 법칙은 애플리케이션 수준 압축을 수행하지 않는 것입니다. 리버베드가 그렇게 하도록 하세요.
- 트래픽을 최적화할 때 기본 설정을 그대로 두면 리버베드는 중복 제거를 위해 디스크를 사용하려고 시도합니다. 문제는 Riverbed가 대부분의 최고급 시스템을 제외한 모든 시스템에서 SATA를 사용하므로 복제와 같은 높은 처리량 트래픽에 병목 현상이 발생한다는 것입니다. 또한 이 트래픽은 일반적으로 반복성이 높지 않으므로 기본적으로 이익이 되지 않도록 디스크 캐시를 지웁니다.
Equallogic 복제에서도 비슷한 상황이 발생했습니다. 경로 내 규칙으로 이동하여 SAN이 상주하는 서브넷을 메모리 전용 캐싱을 수행하도록 설정합니다. 이것이 먼저 적용되도록 모든 최적화 규칙보다 위에 있어야 합니다. 이렇게 하면 복제 속도가 약간 빨라질 것입니다. 더 나은 처리량을 위해 기본적으로 약간의 데이터 축소를 포기합니다.