@ArmataZen

Что нужно для создания отказоустойчивого кластера?

Добрый день!
(по тостеру серфил, но не нашел ответы на вопросы)

Возникла потребность в недорогом отказоустойчивом масштабируемом решении на Windows для использования 1С. Настраивать не буду, спрашиваю для понимания по общей структуре, работе и лицензированию,

Но, к сожалению, возникло много неясностей.
Вводные данные:
На сервере по RDP будут работать пользователи c 1C. Базы как файловые, так и SQL. Размер и количество баз, количество пользователей будет постоянно расти.

Необходимо:
Создать отказоустойчивое масштабируемое решение с соотношением цена/качество с бесперебойной (или минимальным простоем) работой пользователей с 1С. Балансировка нагрузки между серверами.
Возникли вопросы (если что-то не так пишу, ошибаюсь, то смело поправляйте, я только рад найти истину).

Вопросы по железу:
1. Я так понимаю, что для минимально отказоустойчивого (высокодоступного) кластера нам нужны будут 3 железки? 2 под рабочие сервера с балансировкой нагрузки между ними (чтобы не было простоя железа) и 1 под NAS, где будут храниться базы 1с (файловые и SQL. SQL сервер здесь же будет?), бэкапы (вкупе с хранением на удаленном хранилище), пользовательские профили, пользовательские подключаемые диски и общие ресурсы.
2. Из пункта 1 видим, что самое слабое место – это NAS. По дискам для надежности и скорости RAID 10, 2 блока питания. Но что все-таки делать при гипотетическом выходе NAS из строя? (сгорела материнка и т.д.). Держать точно такую же железку и делать репликацию всего на нее? Учитывая, что NAS редко будет из строя выходить, это просто простаивающий сервер может быть, годами…

Как вариант 3 одинаковых железки использовать. На NAS соответственно процессоры медленнее, оперативки немного. Все данные с NAS реплицируются на один из рабочих серверов (там дисков в зеркале добавить для реплики). В случае выхода из строя NAS, перетыкаем диски в рабочий сервер, и он у нас будет временным NAS и остается 1 рабочий сервер на время ремонта NAS. Простой = время на переноса дисков с одного сервера на другой.

Может другие более рациональные варианты, подскажете как специалисты.

3. При исчерпании ресурсов, как будет происходить добавление новых физических серверов в кластер?
Приобретаем лицензию Win и включаем программно железку в кластер? Или не все так просто?
4. На рабочих серверах используем SAS диски в зеркале. На NAS - SSD в RAID 10 (причем лучше 8 SSD по 256, чем 4 по 512, чтобы лучше производительность была?).
Или нет?

Вопросы по ПО и лицензированию:
1. Запутался в кластерах. У 1С как ПО есть реализация кластера, у windows есть реализация кластера. Что использовать? Учитывая лицензирование всего этого.
https://infostart.ru/public/307973/ - т.е. на win можно кластер не использовать, а только с помощью 1с? Минусы этого? Или нужно и то и то использовать? Или одно из? Запутался…
2. Сколько лицензий потребуется на кластер под Windows? Windows, SQL, 1С (не считая лицензий, зависящих от кол-ва пользователей на сервере).

Я так понимаю, что выгоднее использовать бесплатный Microsoft Hyper-V Server с Failover Clustering (отказоустойчивость + балансировка нагрузки). И далее, лицензии на количество виртуальных машин (Windows Stand дает 2 лицензии). Сколько в итоге лицензий и виртуальных машин будет?

С SQL как быть? Как реализовать его отказоустойчивость? Какая версия и лицензия SQL нужная будет для этого?
3. Кто-нибудь покупал лицензии с аукционов? (компании банкроты, их имущество выставили на аукцион, в итоге лицензию можно купить прилично дешевле). Так можно делать? Или только у реселлеров официальных компаний?
4. Чтобы дешевле было, не обязательно же 2016 лицензии использовать, можно и более старые и дешевые 2012 купить? (win, SQL, терминальные, пользовательские)
5. Как быть с лицензиями – передавать их настройщику или вводить собственником самостоятельно? (для пущей безопасности сохранности лицензий)

Благодарю за уделенное время. Спасибо, что поделитесь опытом.
  • Вопрос задан
  • 2139 просмотров
Пригласить эксперта
Ответы на вопрос 3
vvpoloskin
@vvpoloskin Куратор тега Сетевое администрирование
Инженер связи
Это все пальцем в воздух, описание красивых технологий. Результат таких бесцельных активностей - впустую потраченное время и деньги. Для начала надо определиться, какая доступность сейчас и какую надо, исходя из этого резервировать узлы.
Ответ написан
Jump
@Jump
Системный администратор со стажем.
1.
Я так понимаю, что для минимально отказоустойчивого (высокодоступного) кластера нам нужны будут 3 железки?
Вроде четыре выходит.
  • Два сервера с балансировкой для работы пользователей- основные требования много памяти, и SSD . Поскольку это терминал - для запуска программ пользователем нужна память, и очень быстрый диск для работы с профилем пользователя.

  • серьезный сервер для размещения SQL баз, там будет крутиться 1c сервер и SQL сервер - очень много памяти, диски пойдут и обычные, но базу и лог транзакций разносить надо будет по разным.
  • Файловый сервер или NAS для файловых баз- требование в основном в очень шустрой сети до сервера терминалов, но надо смотреть по количеству пользователей этих самых файловых баз, может и в диски упереться. Хотя лучше с файловыми по сети не работать.

На рабочих серверах используем SAS диски в зеркале
Какой с них толк? На рабочем у вас интенсивная работа с профилем пользователя - куча мелких запросов, обычный HDD справится максимум с одним пользователем и то не лучшим образом, а у вас пользователей много - он просто ляжет.
На NAS - SSD в RAID 10
Для чего?? Там нагрузка довольно линейная - в заисимости от нагрузки либо обычные SATA, либо SAS.

лучше 8 SSD по 256, чем 4 по 512, чтобы лучше производительность была?
Производительность SSD в рэйде предсказать очень трудно не зная какие именно SSD будут и какая нагрузка. Может оказаться что рэйд 10 будет значительно менее производительный чем один диск.

Сколько пользователей? Сколько файловых баз? Сколько одновременных активных пользователей предполагается? И сколько SQL Конфигурация баз? Средний размер баз. Ширина канала между терминалом и NAS?
Ответ написан
1 Смириться.
2 Кластер - группа стандартных серверов, подключённых друг к другу по высокоскоростной сети и снабжённых специальным ПО, которое позволяет направлять их ресурсы на решение единых задач /каноническое определение/.
3 Из определения следует, что существует минимум три источника отказа: серверы, сеть, специальное ПО. Вероятности отказов, которых перемножаются со всеми вытекающими.
4 Теорема CAP
5 Из всего этого следует, что выбрать выбирать надо что-то одно:
CA во всех узлах данные согласованы и обеспечена доступность, при этом она жертвует устойчивостью к распаду на секции;
CP в каждый момент обеспечивает целостный результат и способна функционировать в условиях распада, но достигает этого в ущерб доступность;
AP не гарантируется целостность, но при этом выполнены условия доступности и устойчивости к распаду на секции.
6 По опыту. Если решишь сделать кластерную ФС, чтобы избавиться от многих подводных камней, будь готов, что она когда-нибудь рассыплется. Это не панацея.
7 Довольно много кластеростроителей забывают или забивают на требование высокопроизводительной сети. Там не просто должен быть 1 ГБ/с, там должен быть минимум 1 ГБ/с, агрегация интерфейсов и нормальный хардовый коммутатор с большим и высокоскоростным кэшем, минимальными задержками. Но лучше 10 ГБ/с. Это довольно дорогое удовольствие.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы