Я только что настроил соединение сервер-сервер 4x SDR InfiniBand для увеличения пропускной способности для внутреннего хранилища моих виртуальных машин, в частности сервера базы данных. Я использую iSCSI с TGTD на CentOS 6 и могу достичь около 6,45 Гбит/с с использованием IPoIB при тестировании с помощью iperf.
Мне удалось настроить инициатор и цель iSCSI до точки, где я могу достичь скорости записи на SSD около 260 МБ/с. Однако это все еще не оптимальная скорость записи, учитывая, что локально я могу писать со скоростью около 500-600 МБ/с.
Параметры, которые я сейчас использую:
- Макс. длина сегмента данных приема 4194304
- MaxXmitDataSegmentLength 524288
- Макс.длина_взрыва 4194304
- FirstBurstLength 262144
- MaxOutstandingUnexpectedPDUs=0
- МаксВыдающийсяR2T=1
- МаксКоманд=256
- QueueDepth=128
У кого-нибудь был опыт настройки этого? Возможно ли получить что-то большее, изменив конфигурацию? Даже сделав RAID 0 на двух устройствах, я все равно могу достичь только той же пропускной способности, которую я ожидал бы получить выше.
решение1
Результаты, которые вы получили, вполне ожидаемы при текущей настройке. Вы можете получить дополнительный прирост производительности с iser
транспортным режимом.
Советы по настройке отREADME.iser
Цель:
./tgtadm --lld iser --mode target \
--op new --tid 1 --targetname "iqn.$(hostname).t1"
./tgtadm --lld iser --mode target \
--op bind --tid 1 --initiator-address ALL
./tgtadm --lld iser --mode logicalunit \
--op new --tid 1 --lun 1 \ --backing-store /dev/sde
--bstype rdwr
Инициатор:
iscsiadm -m discovery -t sendtargets -p $targe
iscsiadm -m node -p $targetip -T $targetname --op update \
-n node.transport_name -v iser
iscsiadm -m node -p $targetip -T $targetname --login
Сопутствующий полезный вопрос по SF:Настройте простое блочное хранилище Infiniband (SRP или iSER).