
Estamos en el proceso de trasladar todos los servidores (o virtualizar los físicos) a un centro de datos central conectado a través de MPLS.
Actualmente somos completamente redundantes en la mayoría de los aspectos: granjas RDS, clústeres SQL, múltiples controladores de dominio, conmutación por error de hardware para firewalls, etc. El clúster en sí es un clúster ESX de 4 nodos.
Sin embargo, los servidores de archivos son una molestia notoria para lograr algún tipo de redundancia en caso de que la máquina virtual falle o falle por cualquier motivo. Naturalmente, si estuviéramos usando Hyper-V, algo como un servidor de archivos escalable (SOFS) con puntos de acceso de cliente (CAPS) funcionaría, pero VMWare deja menos opciones.
¿Es el sistema de archivos distribuido (DFS) realmente un método lo suficientemente sólido para la redundancia del servidor de archivos y, de ser así, cuáles son las recomendaciones de la gente para su configuración? ¿O qué estrategias ha implementado la gente para lograrlo?
Respuesta1
DFS te responde.
También puede crear un escenario avanzado con DFS y agrupación en clústeres. como vistoallá
Configuración de alta disponibilidad para el servicio de replicación DFS
En esta sección, analizamos los pasos necesarios para configurar un servidor de archivos de alta disponibilidad en este clúster de conmutación por error recién creado. Como resultado de estos pasos, el servicio de replicación DFS también se configura automáticamente para alta disponibilidad. A partir de entonces, este clúster de conmutación por error se puede agregar a un grupo de replicación DFS.
Una especie de diagrama de cómo queda en la final si sigues sus pasos.