O quadro gv100 é adequado para computação de alto desempenho?

O quadro gv100 é adequado para computação de alto desempenho?

Quero comprar uma GPU para computação de alto desempenho. Pelo que eu sei, o poder de computação Tflops do quadro GV100 e tesla V100 é muito semelhante, e o Quadro GV100 é ainda maior.

A especificação do quadro GV100: insira a descrição da imagem aqui

A especificação do tesla v100: insira a descrição da imagem aqui

Mas há algumas diferenças óbvias, parece que a Quadro GV100 tem mais funções, como VR, gráficos. Mas nas "APIs de computador", noto que o Quadro GV100 não possui suporte openacc.

Não entendo, já que o núcleo do Quadro GV100 e do tesla v100 é o mesmo (que é o GV100), por que o openacc não é compatível com o Quadro GV100? Existem diferenças estruturais importantes entre a Quadro GV100 e a Tesla V100 para que a Quadro GV100 não suporte openacc? O openacc pode ser suportado por futuras atualizações de driver para Quadro GV100? O openacc é importante para o cálculo da GPU, especialmente preciso usá-lo para o cálculo do primeiro princípio, como o software vasp? O desempenho da Quadro GV100 é realmente o mesmo do Tesla V100 para computação de alto desempenho, considerando que a Quadro GV100 adiciona muitas funcionalidades adicionais?

Responder1

Comprei o GV100 em vez do V100 devido a uma enorme diferença de preço (me disseram que se você comprar a granel, o V100 é muito mais viável economicamente, mas vice-versa em pequenas quantidades).

Eu o uso para Ciência de Materiais e confirmo que funciona bem com VASP, LAMMPS e meus códigos caseiros, sem diferença significativa com nós equipados com V100 no cluster HPC.

Acho que a capacidade de duplicar a memória endereçável da GPU interconectando as placas é o que mais importa e está presente no GV100.

Observe que a memória da CPU e os recursos PCI são muito importantes nesta equação. A ideia é ser capaz de transferir dados da memória do sistema para a memória da GPU via PCI de forma eficiente, e especialmente as CPUs de nível consumidor não são muito boas com isso.

informação relacionada