
Мы планируем построить отказоустойчивое хранилище с Windows2012r2. Будет 2 или 3 физических машины с 2 виртуальными машинами на каждом сервере. Одна виртуальная машина будет создавать отказоустойчивое хранилище, вторая будет машиной хранения (хранилище + отказоустойчивая машина на каждом физическом сервере).
Схема сети выглядит следующим образом:
Нажмите для увеличения изображения.
На машинах хранения я планирую создать пулы хранения (с многоуровневым распределением и зеркалированием) и виртуальные диски iSCSI, которые будут предоставлены машинам отказоустойчивости (один диск на каждой машине хранения). Я создал такой кластер в своей лаборатории с vmware (рабочий кластер отказоустойчивости), но я пишу здесь в надежде получить совет по следующим вопросам:
Если сеть выглядит так, как указано выше, с Dell Force, управляющим всем трафиком, и 6 NICS на каждом физическом узле сервера (2x10 Gb и 4 x 1Gb), каков будет наилучший способ их использования? Или даже такая настройка разумна (я знаю, что будут SPOF)?
Как бы вы настроили пулы хранения и отказоустойчивость позже, чтобы данные были зеркалированы на каждом узле хранения, и как это повлияет на производительность? Какая настройка будет наиболее оптимальной для такой настройки (чтобы не потерять слишком много полезного пространства)?
Если у меня 64 гига оперативки на каждом физическом узле, какая виртуальная машина должна иметь больше оперативки. Та, что с хранилищем или отказоустойчивые, чтобы достичь хорошей производительности?
Я буду признателен за любую информацию от людей, которые занимались подобными вещами.
-->
(пожалуйста, переместите комментарии или ответы, спасибо)
Вы действительно можете создать кластер Microsoft iSCSI поверх существующего общего хранилища.
http://technet.microsoft.com/en-us/library/gg232632(v=ws.10).aspx
http://techontip.wordpress.com/2011/05/03/microsoft-iscsi-target-cluster-building-walkthrough/
Что вы делаете, вы создаете конфигурацию, которая умрет с каждым умирающим узлом кластера. Потому что целевые образы не синхронизированы между собой.
...или нарисуйте правильную схему соединений :)
<--
Чтобы ответить выше:
На самом деле мне удалось создать Scale Out File Server (кластеризованный) с этими 3 виртуальными дисками ISCSI, подключенными к серверу кластера. Я создал зеркальный виртуальный диск в пуле (сформированном из виртуального iSCSI) и добавил его в кластер. Затем создал SOFS. Затем я выключил сервер с одним из виртуальных iSCSI (отключил питание) — кластер и общий ресурс на нем работали. Кластер сообщил об отсутствии одного диска, но кластер не был отключен. Затем я снова включил хранилище, и оно снова подключилось к кластеру.
-->
Теперь я наконец понял, что ты делаешь! Ладно, проблема в том, что Microsoft не поддерживает ничего, кроме SAS, в производстве в кластерных пространствах хранения по определенной причине. Смотрите:
http://blogs.msdn.com/b/clustering/archive/2012/06/02/10314262.aspx
«Кластерный пул хранения ДОЛЖЕН состоять из физических дисков, подключенных через последовательный SCSI (SAS). Разделение любой формы подсистемы хранения, будь то внутренняя карта RAID или внешний RAID-блок, независимо от того, подключена ли она напрямую или через структуру хранения, не поддерживается».
Эйдан сделал это много лет назад, и мы тоже. Смотрите:
http://www.aidanfinn.com/?p=15145
То, что вы делаете, не будет работать надежно. К сожалению. Жаль, что Microsoft удалила не-SAS фильтр в R2 и забыла предупредить.
<--