Observe que NÃO se trata de fazer uma conexão Hyper-V com um host e utilizar a GPU nesse host. Digo isso, porque toda busca que estou fazendo por isso, pensa que é isso que estou tentando alcançar.
Configurei um servidor Hyper-V na minha rede local. Sou desenvolvedor/consultor e executo uma VM para cada cliente que tenho. Às vezes, preciso executar de 2 a 3 VMs e, idealmente, elas precisam de 10 a 14 GB de memória cada, limitando assim o que meu laptop pode suportar. A CPU do meu laptop também sofre com essa carga.
Então o que fiz foi adaptar meu PC para jogos de última geração (I7, 64 GB de RAM, 1080 gfx) como um servidor Hyper-V. Mudei algumas das minhas VMs para ele,fiz a configuração necessáriae imaginei que estaria tudo pronto. Eu poderia executar um pequeno punhado de VMs com isso e, assim, descarregar meu laptop.
E aí vem o problema. Isso funciona, posso me conectar perfeitamente ao meu novo servidor Hyper-V. No entanto, encontrei um gargalo inesperado.
A conexão Hyper-V do meu laptop parece se conectar usando a GPU Intel integrada (fraca). E apenas essa conexão parece colocar a GPU sob carga considerável - agora tenho um atraso perceptível na interface do usuário, atrasos ao arrastar janelas e coisas assim. Na realidade -meu laptop parece mais estressado agora, executando apenas esta conexão remota, do que quando executei a VM localmente. Portanto, o resultado exatamente oposto ao que eu estava procurando.
Existe uma maneira de fazer o Hyper-V usar meu melhor recurso de GPU? ou há algo que eu possa fazer sobre isso? Não faz sentido para mim que sobrecarregue meu laptop MAIS para descarregar a VM para outra máquina do que para executá-la totalmente localmente.
Não estou tentando jogar no controle remoto. As VMs que executo são ambientes normais do Windows 10, executando coisas regulares (desenvolvedor) como IIS, SQL Server e assim por diante. Não há problema de desempenho no servidor. É apenas a conexão do meu cliente com o host que está causando problemas aqui.