Собственно все переживания связаны с тем, что меня интересует вопрос не будет ли проблем, если несколько СХД будут жить в двух VLAN (А и B контроллеры и vmkernel2/3) зарезервированных под iSCSi. В плане проблем с пропускной способностью понятно, т.к. на данный момент на серверах только по 1 hba с 2 портами 10гбит/с, а у схд по 2 порта на контроллер. Не будут ли СХД мешать друг другу в плане, что трафик от одной СХД контроллера А каким-то образом помешает трафику от другой СХД контроллера А (которые в одном VLAN) и допустим данные или сами vmfs будут повреждены или будут другие проблемы? Супер большие обьемы пока не планируется гонять там...
На текущий момент подключено так:
Допустим:
VLAN2 (iSCSI A) 10.10.2.0/27
VLAN3 (iSCSI B) 10.10.3.0/27
СХД Контроллер А Порт 1 - VLAN2 (10.10.2.2)
СХД Контроллер B Порт 1 - VLAN2 (10.10.3.2)
На esxi hosts
vSwitch2 с двумя аплинками 10гбит/с
Дальше порт группы:
iSCSI A (VLAN2) в ней vmkernel2 10.10.2.3 и на уровне порт группы в nic teaming предопределены настройки/отключено наследование от свича для в failover order и активен один порт из двух - vmnic 4, а vmnic 5 - не используется.
И
iSCSI B (VLAN3) в ней vmkernel3 10.10.3.3 и на уровне порт группы в nic teaming предопределены настройки/отключено наследование от свича для в failover order и активен один порт из двух - vmnic 5, а vmnic 4 - не используется.
Дальше в software iscsi adapter
В network port bindings добавлены vmk2 и vmk3 (порты группы iscsi a и b)
СХД доступна, работает - часть тестовых виртуалок мигрировал на новый datastore.
В эти существие VLAN планирую подключить еще 1 СХД raidix и со старых FC 4gbit переключить 2 шт. MSA2050/2052.
VoidVolker, вычитал на просторах интернета, на spiceworks/reddit и другие форумы и там наткнулся на множество обсуждений, что необходимо изолировать iscsi трафик для каждого контроллера СХД, в том числе и были посты, что если несколько СХД, то изолировать их также отдельными VLAN.
Я изначально хотел сделать как написал Ava256 просто взять 2 VLAN (один для всех А контроллеров всех СХД + vmkernel порты на esxi хостах, а второй для всех B контроллеров всех СХД и vmkernel портов esxi хостов), но потом начал сомневаться после форумов и еще в deepseek загнал вопросы и он меня кошмарить начал на предмет: что будут сбои, могут поломаться vmfs и Broadcast storm-ы положут сетки...и мол лучше для каждой СХД свои VLAN для A и B контроллеров...
вот такие дела...
сомнения...
AntHTML, должна вытянуть, там двух головая (два сервера) система на Raidix, но коллеги отговаривают от данного варианта, аргументируя тем, что это плохо работает...но самый главный минус соответственно СХД нужно переводить в режим NAS и тогда теряются фишки блочного доступа и с нее уже под другие задачи не поюзаешь LUN-ы и т.д. будет тупо большая файловая шара...
Сетап в целом такой под эту задачу (кластер виртуализации со своими отдельными СХД - на кластере ВМ с Linux в качестве FS или ВМ TrueNAS Scale, к этой ВМ по iscsi мапятся lun-ы располошающиеся на отдельной СХД на которой реализовано два raid 7.3 массива, разбитых на несколько lun.
Если смотреть в сторону TrueNAS scale, то он тоже будет в качестве ВМ, ибо отдельный сервер выделять под эту историю нецелесообразно, да и попросту все сервера уже все в боевом режиме с установленными гипервизорами.
Я когда-то уже игрался с truenas scale, вроде даже понравилось в целом, но почему-то (уже не помню) в прод не запустил.
Тут еще вопрос если в качесте хоста, который управляет файловой шарой/архивом использовать вариант с truenas scale, можно ли отказаться от доп. форматирования в zfs подключенных по iscsi lun ? Мне просто запомнилось тогда, что truenas scale исключительно работает или мастхев должен быть на zfs ...
А так как на СХД у меня уже реализованы raid 7.3, сверху городить zfs - это какая-то "дичь".
Диски и СХД уже есть (досталось в наследство).
RAID6 надежнее чем RAID10 ? учитывая, что диски 6TB и во время ребилда таких больших дисков у 6ки есть большой шанс потерять весь массив.
Лучше для сценария: Пространство данного массива планируется выделить под не системные виртуальные диски (доп. Диски к виртуалкам) в vsphere под Файловые шары/Архивы с данными.
Одиночный SSD добавлять можно.
По поводу количества LUN так же нужен будет совет, если все 8 дисков в одном пуле наверное есть смысл отдать одним LUN под vmfs datastore , а если вариант с двумя группами по 4, то соответственно 2 LUN
Алексей Черемисин, спасибо, я вот тоже думаю, что можно перевести порты в гибридный режим FC-iSCSI (и у HP MSA и Dell ME) есть такой функционал, и получается тогда можно настроить их параллельно.
Вопрос как тогда правильно / безопасно сделать такое переключение, чтобы потом не получилось потерять датастор с данными.
Большое спасибо, данное решение - помогло решить проблему!
Подскажите пожалуйста, возможно Вы можете посоветовать и скинуть пару ссылок на какие-нибудь хорошие материалы / ресурсы / видеокурсы, по описанию и применению разнообразных фич в Гугл Таблицах
Владимир Коротенко, Здравствуйте, данным способом я ранее смог обновить сертификат на контроллере (SP) и собственно сейчас удается зайти в интерфейс управления (ограниченный, пункт 2 моем описании), только через ip адрес контроллера где был обновлен сертификат таким образом. А вот, как обновить сертификат на Control Station - не понятно...
самое важное, что не доступно управление сетевые шарами...единственное, что могу это через оснастку управление компьютером в windows, можно подключиться по ip к виртуальному NAS Dell? где расшарены каталоги для пользователей....
Написано
Войдите на сайт
Чтобы задать вопрос и получить на него квалифицированный ответ.
Собственно все переживания связаны с тем, что меня интересует вопрос не будет ли проблем, если несколько СХД будут жить в двух VLAN (А и B контроллеры и vmkernel2/3) зарезервированных под iSCSi. В плане проблем с пропускной способностью понятно, т.к. на данный момент на серверах только по 1 hba с 2 портами 10гбит/с, а у схд по 2 порта на контроллер. Не будут ли СХД мешать друг другу в плане, что трафик от одной СХД контроллера А каким-то образом помешает трафику от другой СХД контроллера А (которые в одном VLAN) и допустим данные или сами vmfs будут повреждены или будут другие проблемы? Супер большие обьемы пока не планируется гонять там...
На текущий момент подключено так:
Допустим:
VLAN2 (iSCSI A) 10.10.2.0/27
VLAN3 (iSCSI B) 10.10.3.0/27
СХД Контроллер А Порт 1 - VLAN2 (10.10.2.2)
СХД Контроллер B Порт 1 - VLAN2 (10.10.3.2)
На esxi hosts
vSwitch2 с двумя аплинками 10гбит/с
Дальше порт группы:
iSCSI A (VLAN2) в ней vmkernel2 10.10.2.3 и на уровне порт группы в nic teaming предопределены настройки/отключено наследование от свича для в failover order и активен один порт из двух - vmnic 4, а vmnic 5 - не используется.
И
iSCSI B (VLAN3) в ней vmkernel3 10.10.3.3 и на уровне порт группы в nic teaming предопределены настройки/отключено наследование от свича для в failover order и активен один порт из двух - vmnic 5, а vmnic 4 - не используется.
Дальше в software iscsi adapter
В network port bindings добавлены vmk2 и vmk3 (порты группы iscsi a и b)
СХД доступна, работает - часть тестовых виртуалок мигрировал на новый datastore.
В эти существие VLAN планирую подключить еще 1 СХД raidix и со старых FC 4gbit переключить 2 шт. MSA2050/2052.