Esta é uma nova configuração do ESXi 4.0 executando VMs em uma SAN Cybernetics miSAN D iSCSI.
Fazendo um teste de alta leitura de dados em uma VM, foram necessários 8 minutos versus 1,5 minutos na mesma VM localizada em um host VMWare Server 1.0 mais lento com as VMs localizadas no disco local. Estou observando minhas velocidades de leitura da SAN e está obtendo pouco mais de 3 MB/s de leitura máxima, e o uso do disco na VM corresponde a pouco mais de 3 MB/s... terrivelmente lento.
O servidor e a SAN estão conectados ao mesmo switch de 1 GB. Eu segui este guia
virtualgeek.typepad.com/virtual_geek/2009/09/a-multivendor-post-on-using-iscsi-w ith-vmware-vsphere.html
para configurar corretamente o multipathing, mas ainda não estou obtendo um bom desempenho com minhas VMs. Eu sei que a SAN e a rede devem ser capazes de lidar com mais de 100 MB/s, mas não estou conseguindo. Eu tenho duas NICs de GB na SAN com vários caminhos para duas NICs de GB no host ESXi. Uma NIC por VMkernel. Há algo mais que posso verificar ou fazer para melhorar minha velocidade? Agradecemos antecipadamente por qualquer dica.
Responder1
Esse hardware SAN é certificado para VMware, portanto, peça suporte para analisá-lo. As causas comuns para o mau desempenho são a sobrecarga da interface do hardware SAN, porque se você tiver várias conexões com a mesma SAN, nem todas poderão ser atendidas na velocidade máxima.
Além disso, seu disco local sempre será mais rápido que sua SAN em sua configuração, porque mesmo um disco SATA terá largura de banda máxima de 3 Gb/s, portanto sua SAN nunca corresponderá à velocidade de seus discos locais. Você provavelmente também está usando Ethernet em vez de fibra, o que também não ajuda no desempenho.
Você usa uma SAN não apenas pela velocidade, mas para ter um local central gerenciado onde você pode colocar todos os seus dados importantes e garantir que um nível de RAID adequado esteja sendo aplicado. Existem também alguns recursos como replicação, que é uma das vantagens de ter uma SAN.
Responder2
Essa configuração deve ser capaz de fornecer desempenho razoável e, pelo que pude perceber, esse array pode sustentar cerca de 60-70 Megabytes por segundo, mesmo para IO aleatório de pequenos blocos. Não tenho experiência com eles, mas as especificações indicam que ele deve ser facilmente capaz de atender aos seus requisitos e as poucas análises que as pesquisas confirmam.
De qualquer forma, se eu fosse você, primeiro recuaria um pouco. Livre-se do multipathing (inicialmente) e certifique-se de obter um único caminho (no lado do VMware) para manter um desempenho respeitável. Supondo que você tenha uma unidade de 8 unidades, totalmente preenchida com unidades SAS de 10k, um hot spare e um pacote RAID 5 de 7 unidades, ele deverá ser capaz de fornecer facilmente leitura ou gravação sequencial de> 100 Meg/s em uma única interface em um bom e dedicado Gbit LAN é responsável por toda a sobrecarga de ip\tcp e iSCSI. Faça testes simples em massa de cópias de arquivos grandes (algo significativamente maior que o cache de gravação no array) de ou para a SAN para verificar se você está vendo isso. Se você estiver lendo e gravando no volume SAN, o desempenho não será superior à metade desse valor. Caso contrário, você vai querer dar uma olhada em todos os suspeitos do costume:
- Para começar, certifique-se de que o cache da SAN esteja configurado corretamente
- Certifique-se de que todas as unidades estejam íntegras - ou seja, você não está lutando contra uma reconstrução de RAID
- Certifique-se de que o switch esteja íntegro e não ocupado com outras coisas - o ideal é isolar o tráfego SAN em seu próprio switch; se não puder fazer isso, coloque-o em sua própria VLAN.
- Definitivamente, não o coloque em um switch barato que esteja muito ocupado com outras coisas.
- Verifique as configurações duplex e de velocidade em todas as portas (ESX, Switch e SAN)
- Evite mexer com Jumbo Frames e ESX até saber que todo o resto está funcionando
- Definitivamente habilite o controle de fluxo de hardware no switch
Ao testar, certifique-se de que nem o host ESX nem a SAN estejam ocupados com mais nada.
Depois de obter com sucesso> 100 Meg/seg para tráfego sequencial em um único uplink, você pode considerar ver se o multipathing faz diferença. Com o iSCSI no ESX4 isso pode acontecer, mas é improvável, a menos que o array de armazenamento o suporte corretamente em conjunto com o ESX 4. Eu procuraria o fornecedor do array para obter orientação sobre isso.
Responder3
Multipathing pode estar causando o seu problema. Você consegue, e já tentou, desabilitar o multipathing e ter apenas uma conexão de 1 Gb com sua SAN? O VMware pode estar atrapalhando o caminho quando colocado sob carga devido a um link ruim ou a um atraso na entrega de pacotes...
A propósito, sua taxa de transferência máxima com um link de 1 Gb será de aproximadamente 30 MBytes/s se seu host SAN e ESXi forem os únicos dois dispositivos nesse link ...
Responder4
Lembre-se de que o driver Multi-Pathing IO (MPIO) nativo no VMware é apenas ativo/passivo, portanto, usará apenas um caminho por LUN. Portanto, se todo o seu tráfego for para um único LUN, você usará apenas um caminho para levar esse tráfego até lá. O único driver MPIO de terceiros com suporte (que eu conheço) é o PowerPath da EMC, que é um driver MPIO ativo/ativo, mas requer a edição Enterprise Plus do vSphere.
Algumas coisas para observar.
Você habilitou Jumbo Frames na SAN, switch e host? A SAN está apresentando algum problema de desempenho por meio de suas ferramentas de monitoramento? Quantos discos estão atrás do LUN em questão? Quantas outras coisas estão atingindo esses mesmos discos?