
Wir sind dabei, alle Server (oder die Virtualisierung physischer Server) in ein zentrales Rechenzentrum zu verschieben, das über MPLS verbunden ist.
Derzeit sind wir in den meisten Aspekten vollständig redundant – RDS-Farmen, SQL-Cluster, mehrere DCs, Hardware-Failover für Firewalls usw. Der Cluster selbst ist ein 4-Knoten-ESX-Cluster.
Allerdings ist es notorisch schwierig, bei Dateiservern eine Form von Redundanz zu erreichen, falls die virtuelle Maschine aus irgendeinem Grund abstürzt oder ausfällt. Wenn wir Hyper-V verwenden würden, würde natürlich etwas wie Scale-out File Server (SOFS) mit Client Access Points (CAPS) funktionieren, aber VMWare lässt weniger Optionen.
Ist das Distributed File System (DFS) wirklich eine ausreichend robuste Methode für Dateiserverredundanz und wenn ja, welche Konfigurationsempfehlungen gibt es? Oder welche Strategien wurden implementiert, um dies zu erreichen?
Antwort1
DFS antwortet Ihnen.
Sie können auch erweiterte Szenarien mit DFS und Clustering erstellen. Wie gesehenDort
Konfigurieren der hohen Verfügbarkeit für den DFS-Replikationsdienst
In diesem Abschnitt sehen wir uns die Schritte an, die zum Konfigurieren eines hochverfügbaren Dateiservers auf diesem neu erstellten Failovercluster erforderlich sind. Als Ergebnis dieser Schritte wird auch der DFS-Replikationsdienst automatisch für hohe Verfügbarkeit konfiguriert. Anschließend kann dieser Failovercluster einer DFS-Replikationsgruppe hinzugefügt werden.
So etwas wie ein Diagramm davon, wie es im Finale aussieht, wenn Sie ihren Schritten folgen.