
Ich habe mich ein bisschen umgesehen und konnte keine endgültige Antwort finden. Mein Setup dient Bildungszwecken, da ich an meinem College an einem CCNA/Cybersecurity-Programm teilnehme.
Wie auch immer, kommen wir zur Sache: PC A steht oben, direkt über meinem Hauptrouter/-modem. Er läuft mit Windows 2022 Datacenter, dank meines Colleges, das solche Tools zur Verfügung stellt. Dieser Server ist über einen WLAN-Repeater, der über EINE Gigabit-Verbindung verfügt, mit einem separaten Router verbunden. Der Repeater kann als Client-AP oder Bridge eingerichtet werden. Da ich einen Router auf dem Gigabit installiert habe, läuft der Server jetzt über den Router. Ich brauchte nur mehr Ports für alle meine Maschinen – ich habe einen Switch für unten, der nur noch nicht angeschlossen ist. PC B ist unten per Festnetz mit meinem Router verbunden. Dies ist eine nahezu identische Maschine, nur die Modellnummer ist etwas anders – PC A ist ein HP 8570w und PC B ist ein HP 8760w. PC A hat einen besseren Prozessor, mSATA (wo meine VMs gespeichert sind) und 2 SSDs auf RAID0. PC B ist etwas langsamer, hat aber eine bessere GPU, aber DREI SSDs (alle gleich), von denen sich 2 auf RAID0 befinden und das primäre Laufwerk das Betriebssystem hostet, 2022 Datacenter. Sie haben auch gleich viel RAM, jeweils 32 g.
Das Ziel ist, eine VM auf einem Client-PC bereitzustellen und dabei beide Server zu nutzen (ein Pool, glaube ich). Ich verwende keine ausgefallene Software, die VM ist einfach für College-Sachen gedacht, falls ich mich entscheide, sie unten auf meiner Couch zu machen. Der Client wird per Hardline mit meinem Router verbunden, ebenso wie PC B.
Kommen wir also gleich zur Sache:
Kann ich zwei Server nutzen, um die Arbeitslastanforderungen für eine VM-Bereitstellung „auszugleichen“? PC A ist schneller und möglicherweise liegt ein Unterschied von 1–2 ms vor, PC B befindet sich jedoch unter meinem Client-PC. Wenn ja, wie? Vielleicht ein Link für weitere Anweisungen, um mich in die richtige Richtung zu lenken?
Ich denke, die größte Frage ist, ob das überhaupt einen Sinn hat. In einem großen Unternehmen kann ich verstehen, warum Failover-Cluster und Replikation nützlich sein können, aber das ist nicht mein Ziel. Ich möchte einfach die Arbeitslast ausgleichen, sodass PC A einspringen kann, wenn die CPU von PC B am Limit ist – oder umgekehrt. Dasselbe gilt für RAM. Ich habe auf keinen Fall vor, eine VM mit beispielsweise 64 GB RAM zu betreiben. Das meiste sind 8 GB, natürlich dynamisch. Irgendwelche Hilfe oder Ratschläge in dieser Situation?
Vielen Dank an alle!
Antwort1
- Ja und nein.
Hohe Verfügbarkeit und Fehlertoleranz können mit Replikation oder Failover-Clustering verwaltet werden. In älteren Versionen von HyperV wurde dies nicht unterstützt und Sie mussten Systeme manuell migrieren. In neueren Versionen wird dies nativ unterstützt.
So richten Sie die Hyper-V-Replikation ein: https://docs.microsoft.com/en-us/windows-server/virtualization/hyper-v/manage/set-up-hyper-v-replica
So richten Sie einen Hyper-V-Failovercluster ein: https://docs.microsoft.com/en-us/windows-server/failover-clustering/create-failover-cluster
Wenn Sie davon sprechen, eine Arbeitslast (wie einen Webdienst) auf zwei VMs aufzuteilen, ist das nicht gerade die Absicht von Replikations- oder Failover-Clustering. Sie müssten Ihrer Replikations- oder Failover-Cluster-Lösung eine Art Lastausgleichstechnologie hinzufügen.
- Ja und nein.
Es geht nicht um die Größe des Unternehmens. Es geht darum, welches Risiko das Unternehmen bereit ist einzugehen. Wenn das Unternehmen keine Ausfallzeiten zulassen kann, dann braucht es diese Funktionen. Wenn ein Unternehmen angibt, dass es X Stunden warten kann, während jemand versucht, das Problem zu beheben, dann besteht weniger Bedarf für diese Funktionen.
Ansonsten sprechen Sie von Lastenausgleich. Sie sollten zur Verwaltung von Ressourcenproblemen weder Replikation noch Failoverclustering verwenden.
Sie sollten diese Dokumentation zum System Center Virtual Machine Manager lesen: https://docs.microsoft.com/en-us/system-center/vmm/whats-new-in-vmm?view=sc-vmm-2019