athacker: Теперь я понял. Просто для меня СХД это система хранения данных. А как она организована, на коленке или промышленно это уже второй вопрос.
Луны по iSCSI это скорость. Пропуск пинга и все Ваши виртуальные машины потеряли диск и висят в failed boot. Но чувствую проверять теорию придется ТС на практике.
На счет VirtualSAN: учитывая нынешнюю "суровую реальность" готов ли ТС платить по 4000у.е. за лицензии "на процессор"? Опять повторюсь, что внедрение модных новых "штучек" должно приносить профит. Какой профит от внедрения VirtualSAN за кучу бабла на три сервера? Это еще надо не забыть, что в каждой ноде для VSAN должно быть минимум по одному SSD.
Мои рекомендации это хороший контроллер + дисковая полка в каждую ноду. Если iSCSI, то через отдельный коммутатор и только на 10Gb.
По-моему тема освещена достаточно и можно закрывать. Всем спасибо за участие)
athacker: Ок, может я понимаю буквально, но равнозначно ли, Ваше утверждение "кластер без СХД" утверждению "кластер без общего хранлища"?
Или может еще лучше Вы ткнете меня носом в какой-нибудь мануал по настройке кластера без общего хранилища? Потому что я, ей богу, не понимаю как Вы себе представляете такую конфигурацию.
athacker: Я считаю, что если денег нет, то тогда надо не выпендриваться и сидеть на попе ровно. А не создавать себе лишних проблем виртуализируя три машны.
Не надо задавать мне встречных вопросов. Просто расшифруйте мне свое утверждение "СХД совсем не обязательно нужна для организации кластера".
1) Спасибо, я знаю для чего нужен кластер.
2) Читайте внимательно, то что присылаете:
"The host physical disk system must also satisfy at least one of the following criteria to meet the requirements of virtualized workload data integrity:
The system uses server-class disks (SCSI, Fibre Channel).
The system makes sure that the disks are connected to a battery-backed caching host bus adapter (HBA).
The system uses a storage controller (for example, a RAID system) as the storage device.
The system makes sure that power to the disk is protected by an uninterruptible power supply (UPS).
The system makes sure that the disk's write-caching feature is disabled."
СХД подключенное по iSCSI не удовлетворяет этим условиям.
3) Вопрос о необходимой скорости снова к ТС. Но по своему опыту скажу, что четыре 1Gb линка в NicTeaming не дают скорости необходимой для комфортной работы более 8 виртуальных машин на кластере (DC, Exchange, 2003, win7 и т.д.). Одни тормоза.
4) Я имел ввиду стоимость за три карты вместе.
5) Я пытаюсь расшифровать Вашу фразу "Во-вторый, СХД совсем не обязательно нужна для организации кластера.", и снова повторю свой вопрос: каким образом будет достигаться отказоустойчивость, при отсутствии СХД в кластере?
Замете, я не говорю о отсутствие СХД в СЕТИ.
Когда встает вопрос о том, внедрять или не внедрять новые "фишки" обеспечивающие дополнительную отказоустойчивость, на одну чашу весов встает стоимость простоя или выхода из строя серверов, а на другом стоимость внедрения.
Я не уверен, что простой гарант-сервера стоит усилий и денег на создание кластера+СХД.
Но на этот вопрос скорее должен ответить ТС.
Как раз, что бы использовать меньше маршрутизации. Если DHCP раздал один адрес 0.55 а другой 1.10, то зачем гонять трафик через маршрутизатор, если оба интерфейса подключены к одному коммутатору?
Приложения различные, от 1С и файл-сервера, до IP-камер и видеосовещаний.
Вот как раз интересует эта вероятность возникновения сюрпризов, насколько она реальна и насколько высока в таком случае?
Поговаривают в интернетах, что надо сегментировать отделы и типы оборудования через VLAN, действительно ли это актуально?
athacker: На счет сложнее или нет, тут вопрос индивидуальный. Может Вы мастер Йода, но я, например, утомился делать кластер на Hyper-V Core 2012, кода на Сфере это делается в пять щелчков, образно говоря.
athacker: Простите, но зачем здесь кластер? У ТС задача поднять пару виртуальных домен-контроллеров, файл-сервер, плюс сервер на гарант и еще что-нибудь.
Если почитаете майкрософтские best practice, то там вообще очень специфичные должны быть настройки для хранения КД в виртуальной среде. А тем более на одном СХД от двух контроллеров не будет толку. Отказоустойчивость не измениться.
Привязка СХД к кластеру (если делать на iSCSI) должна быть не меньше 10Gb, в противном случае тормоза при чтении с диска обеспечены.
И считайте: в три сервера по карте 10Gb (90тыс.руб.) + коммутатор 10Gb (80тыс.руб. А по хорошему их должно быть два!) + СХД (минимум 250тыс.руб.)
Итого 420К за мифическую отказоустойчивость.
На эти деньги можно заменить в каждом сервере корзины на SFF, и будет 8х1Тб на одном сервере минимум.
Отдельно брать СХД действительно нет смысла в данном случае. Если конечно не собираетесь делать кластер(что на Сфере платно, а на Винде запарно). Возьмите отдельно корзины для жестких дисков (от тех же HP) и RAID-контроллер с внешним выходом и будет у вас сервер + 12 hdd.
А есть ли у кого опыт использования Kerio Connect?
Потому что тоже интересует сабж.
Выбираю между тем, что бы "по-взрослому" подойти и купить Exchange, или все-таки что-то более простое..