Как-то пропустил эту тему. У самого две супермикры, самосборное хранилище, 6 виртуалок и всё это по гигабиту. На виртуалках почта+сайт+база мсскуль+контроллер домена+мониторинг+виртуалка с veeam B&RТак же видел, как на гигабите в такой конфигурации работало 10 виртуалок+MSSQL довольно загруженный. Пропуск пинга виртуалки переживают нормально.
Планирую собрать второй сервак под хранилище и хранилище пустить в drbd. Либо посмотреть в сторону ceph. Пока не знаю.
Теперь про нюансы.
Если хранилище будет самосборное под кластер на линукс, то для отдачи дисков по iscsi необходимо использовать fcoe-utils и ядро 3+. Обычный tgtd плохо работает с кластером. QNAP на какой-то из прошивок тоже выдавал кучу проблем, потом они это исправили.
Так же из опыта скажу, что один из контроллеров домена обязательно должен быть вне кластера жестко прибит к одной ноде.
Это необходимо для того, что бы кластер видел контроллер всегда.
кейс:падает питалово надолго. все серваки и схд потухли. Вы поднимаете физические ноды, а они не видят контроллер и кластер на поднимается. А контроллер домена у вас в кластере. И дальше у вас куча веселого секса. Такое конечно не всегда, но бывало.
вмваря кстати сильно платная, это я так, напомнить.
отдельно посоветую собрать себе тестовый стенд. Взять пару машин уровня core2duo(лишь бы виртуализацию держало), набить оперативкой и поставить на них винду, собрать кластер, повертеть его, сломать, собрать, еще раз сломать и собрать. И уже после этого принимать решение.
Советую делать всё крайне осторожно. То есть если вы хорошо умеете в винду+керио, то и сидите на винде+керио. НЕ НАДО пихать в продакшн неизвестные для вас технологии, так как это может кончится гуглением в 3 часа ночи какой-то мутной проблемы.
Планирую собрать второй сервак под хранилище и хранилище пустить в drbd. Либо посмотреть в сторону ceph. Пока не знаю.
Теперь про нюансы.
Если хранилище будет самосборное под кластер на линукс, то для отдачи дисков по iscsi необходимо использовать fcoe-utils и ядро 3+. Обычный tgtd плохо работает с кластером. QNAP на какой-то из прошивок тоже выдавал кучу проблем, потом они это исправили.
Так же из опыта скажу, что один из контроллеров домена обязательно должен быть вне кластера жестко прибит к одной ноде.
Это необходимо для того, что бы кластер видел контроллер всегда.
кейс:падает питалово надолго. все серваки и схд потухли. Вы поднимаете физические ноды, а они не видят контроллер и кластер на поднимается. А контроллер домена у вас в кластере. И дальше у вас куча веселого секса. Такое конечно не всегда, но бывало.
вмваря кстати сильно платная, это я так, напомнить.
отдельно посоветую собрать себе тестовый стенд. Взять пару машин уровня core2duo(лишь бы виртуализацию держало), набить оперативкой и поставить на них винду, собрать кластер, повертеть его, сломать, собрать, еще раз сломать и собрать. И уже после этого принимать решение.
Советую делать всё крайне осторожно. То есть если вы хорошо умеете в винду+керио, то и сидите на винде+керио. НЕ НАДО пихать в продакшн неизвестные для вас технологии, так как это может кончится гуглением в 3 часа ночи какой-то мутной проблемы.