Как правильно обрабатывать отказоустойчивость в многопутевой конфигурации Active/Pass SAN в многопутевой системе Linux?

Как правильно обрабатывать отказоустойчивость в многопутевой конфигурации Active/Pass SAN в многопутевой системе Linux?

Я пытаюсь создать многопутевую конфигурацию с SAN HPE EVA 6350 (2 контроллера HSV340 с мезонинами iSCSI и мультиплексорами FC/iSCSI) и системами Linux Debian 12 по iSCSI.

Vdisks, созданные на EVA, имеют контроллер-"владельца", я оставил все из них принадлежащими Контроллеру 1. Цели, представленные SAN, имеют FC WWPN в своих именах, поэтому можно определить, к какому пути FC и контроллеру подключена эта цель. После входа в систему только цели, подключенные к адаптеру FC Контроллера 1, дают блочные устройства (пути). Таким образом, когда активны 4 сеанса iSCSI, присутствуют только 2 пути. Таким образом, multipath никогда не знает обо ВСЕХ путях.

Я перезагрузил SAN Controller 1, предполагая, что SAN автоматически перенаправит свои vdisks на пассивный Controller 2. Но никаких путей не появилось ни автоматически, ни после повторного входа в эти сеансы. Поэтому я получил поврежденный блок ввода-вывода и многопутевой доступ всего с 2 неисправными путями.

Как правильно выполнить отказоустойчивость «активный-пассивный»? Должен ли какой-то запрос быть отправлен в SAN от инициатора или это внутренняя задача SAN? Может ли Linux open-iscsi + multipath вообще правильно обработать такую ​​конфигурацию?

решение1

Внутренние порты FC каждого модуля ISCSI (также называемые «мостами MPX», поскольку они выполняют роль мультиплексора ISCSI от ISCSI до FC) на EVA подключаются как FC Direct Connect к внешним портам FC HSV на каждом контроллере HSV. Насколько мне известно, для каждого модуля ISCSI есть 2 внутренних порта FC, и каждый из этих портов подключается отдельно к контроллерам A и B.

Информация о многопутевом доступе для LUN на хосте-инициаторе ISCSI должна отображать все возможные пути ISCSI от модуля(ей) ISCSI (т. е. через оба контроллера HSV), при этом пути к резервному контроллеру HSV для LUN должны быть указаны как «Резервный», а пути к активному контроллеру HSV для LUN будут указаны как «Активный». Имена целей ISCSI из модуля(ей) ISCSI должны включать FC WWN всех портов FC front-end контроллера HSV, для которых модуль ISCSI правильно настроен.

У меня нет прав на этом сайте, чтобы комментировать и задавать дополнительные вопросы о конфигурации вашего модуля ISCSI, отображаемой в пользовательском интерфейсе управления массивом HPE EVA CommandView, поэтому вы можете проверить следующее:

  1. Что свойства контроллеров ISCSI отображаются как "хорошие" на страницах CommandView. (Сеть хранения->Массив->Оборудование->Устройства ISCSI->Контроллеры ISCSI 1 и 2). В частности, проверьте состояние бэкэнда "портов FC" и "Представленных целей" на вкладках. Перепроверьте состояние порта FC, показанное на этой странице, с фактической страницей свойств порта контроллера FC массива HSV.

  2. Что хост ISCSI MPX (т. е. хост MultiPleXer, который автоматически/внутренне создается CommandView в Array->Hosts) правильно отображает все данные на своих страницах в CommandView. Каждый хост MPX должен видеть необходимое количество портов HSV-контроллера FC front-end EVA в соответствии с настройками, и обязательно проверьте, что эти FC-соединения с портами HSV FC находятся в сети.

  3. Что ваш хост-инициатор правильно настроен как хост Linux в CommandView.

Если владелец контроллера HSV виртуального диска EVA (как видно в CommandView) меняется на другой контроллер HSV при выключении или перезагрузке контроллера-владельца, то это может быть связано с конфигурацией модуля(ей) ISCSI на EVA.

Если конфигурация модуля(ей) ISCSI определена как в порядке, вы можете проверить, возникает ли проблема с хостом Windows Server? Если в Windows проблем не наблюдается, то либо конфигурация Linux multipath неверна, либо Linux multipathing через ISCSI к EVA может не поддерживаться HPE. Если он действительно поддерживается HPE, проверьте, что хост инициатора Linuxmultipath.confфайл правильно настроен в соответствии сРекомендации HPE EVA Device Mapper multipath.conf для Linux.

Чтобы ответить на ваш другой вопрос, программное обеспечение/драйверы многопутевого управления на хостах в SAN обрабатывают отказоустойчивость и отказоустойчивость путей к LUN. Фактическая конфигурация многопутевого управления на хосте зависит от возможностей системы хранения поставщика — являются ли контроллеры системы хранения активными/активными, активными/резервными или активными/пассивными. EVA — это массив хранения данных в режиме «активный/резервный», и он соответствует стандарту SCSI ALUA для таких систем. Команды SCSI от драйверов многопутевого управления хоста-инициатора отправляются на целевые порты массива через доступные/онлайн-пути для определения того, какие пути являются активными, а какие — резервными.

Связанный контент