Eu tenho doisServidores blade HPBL685c G6executando Ubuntu 15.04
- Cada servidor possui NIC 4X10GB
- 2x10GB NIC estão conectados a um únicoMódulo Ethernet VirtualConnect 10/10G
- As outras NIC de 2x10GB estão conectadas a uma segundaMódulo Ethernet VirtualConnect 10/10G
- Os módulos de conexão virtual são configurados para empilhamento horizontal e estão localizados nos compartimentos de interconexão 1 e 2
- As NICs referenciadas são todasadaptadores Flex-10 incorporados
Quando configuro cada uma das 4 NIC de 10 GB separadamente, posso testar usando o iperf e recebo largura de banda de aproximadamente 10 Gbit/s entre servidores, para cada NIC. Isso funciona conforme o esperado.
- Servidor1:http://d.pr/n/15dA5
- Servidor 2:http://d.pr/n/10pqJ
- resultados do iperf:http://d.pr/i/pscUehttp://d.pr/i/zh2E
Agora, estou tentando vincular todas as NIC de 10 GB em cada servidor, usando o modo de ligação "balance-rr". Esses resultados variam, mas ficam em algum lugar entre 2,5 Gbits/seg e 5 Gbits/seg
- Servidor1:http://d.pr/n/1aTei
- Servidor 2:http://d.pr/n/12Mqy
- resultados do iperf:http://d.pr/i/1cvh0ehttp://d.pr/i/1eOgU
Estou usando a mesma configuração para vincular NIC de 2X1GB nesses mesmos servidores, a ligação de NIC de 2X1GB resulta em largura de banda de aproximadamente 2Gbit/s ao testar com iperf. Essas duas NICs não estão conectadas a um domínio Virtual Connect e, em vez disso, estão conectadas a um domínio diferente.Interruptor de lâmina Cisco Catalyst 3120
- Servidor1:http://d.pr/n/1kk4f
- Servidor 2:http://d.pr/n/fbVJ
- resultados do iperf:http://d.pr/i/10N4qehttp://d.pr/i/1a0z3
Então, minha pergunta é: por que a ligação de NIC 4X10GB usando balance-rr resulta em menos desempenho do que usar uma única NIC. Eu teria esperado largura de banda de ~ 40 Gbit/seg menos sobrecarga de TCP/Bonding, o que se alinharia com meus resultados ao vincular 2X1 GB e obter ~ 2 GB durante o teste.
Eu tentei isso com diferentes modos de ligação, e os outros resultam em largura de banda de aproximadamente 10 Gbit/seg quando ligados. Ainda não é o ideal, mas melhor que os resultados do balance-rr.
Responder1
Parece que os módulos Virtual Connect não suportam o modo bond 0 (balance-rr) em implantações Linux.
Do suporte HP:http://h20564.www2.hp.com/hpsc/doc/public/display?docId=emr_na-c02957870
Informação Modos de ligação não suportados em um ambiente HP Virtual Connect podem produzir perda de pacotes e/ou problemas de desempenho.
Detalhes O HP Virtual Connect oferece suporte aos modos de ligação 1, 5 ou 6. O VC não oferece suporte aos modos 0 (round robin) ou 7 (balanceamento de carga assistido por switch).
Modo 1:Ativo/backup. Política de backup ativo: Apenas um escravo no vínculo está ativo. Um escravo diferente torna-se ativo se, e somente se, o escravo ativo falhar. O endereço MAC do vínculo é visível externamente em apenas uma porta (adaptador de rede) para evitar confundir o switch.
Modo 5:Balanceamento de carga de transmissão adaptativo: ligação de canal que não requer nenhum suporte especial de switch. O tráfego de saída é distribuído de acordo com a carga atual (calculada em relação à velocidade) em cada escravo. O tráfego de entrada é recebido pelo escravo atual. Se o escravo receptor falhar, outro escravo assumirá o endereço MAC do escravo receptor que falhou.
Modo 6:Balanceamento de carga adaptativo: inclui balance-tlb mais balanceamento de carga de recebimento (rlb) para tráfego IPV4 e não requer nenhum suporte de switch especial. O balanceamento de carga de recebimento é obtido por negociação ARP.