Сервера:
Supermicro X10RDi Xeon x2 по 6 ядер, 64 GB RAM
Supermicro X10RDi Xeon x2 по 6 ядер, 64 GB RAM (процы слабее)
Supermicro X7DVL-3 Xeon x2 по 2 ядра, 16 GB RAM
На всех трёх WS2012R2 Standard.
Есть пачка разнотипных серверов по мелочи, все дохлые или вообще на десктопном железе. Про них в целом забываем. Сеть везде 1 гигабит. Коммутаторы управляемые HP.
На серверах - DHCP, 2 КД, DNS, AD RMS. Кое какой вспомгательный софт, на одном стоит гипервизор и там кое-какие виртуалки запущены - zabbix, redmine. Сильной нагрузки на сервера нет, самое прожорливое - файловый сервер, на нем много шифруется-расшифруется cad-файлов. Объем места под файл сервер - 3 терабайта с запасом на вырост.
Всем этим стало сложно управлять, сложно добавлять новые сервисы, никакой изоляции - это не дело когда на КД мы ставим условно говоря софт по конвертации PDF и принт сервер. Я точно знаю что надо внедрять виртуализацию :)
Теперь, вопрос.
Что надо:
Надо бюджетное (вообще максимально бюджетное) хранилище под виртуалки, и под единую файловую помойку (сейчас файловая помойка размазана по всем серверам). Опции, которые я вижу-понимаю:
1) строим iSCSI SAN. Теоретически, коммутаторы нам не нужны новые, надо купить полку, диски. В чём проблемы: один LUN надо цеплять за один сервер, то есть в принципе придется под виртуалки делать два LUN + один под файлы. Если теряем полку (контроллер или питание) то внятного плана восстановления нет. Две полки бюджет не тянет, адназначна. Да и даже одна - это дорого. Из плюсов - я точно знаю что это работает и что RAID10 LUNа по гигабиту будет достаточно по скорости (из опыта и текущей нагрузки).
2) Используем DAS полку, цепляем к одному или двум серверам и строим массив из StorageSpaces. Минус - надо покупать HBA, саму полку. Полка получается опять-таки spf без внятного плана что дальше с ней делать. По баблу не сильно отличается от решения с iSCSI.
3) Покупаем самый дешёвый 2U сервер с большим количеством корзин под диски (от 12ти), строим из него файл сервер из StorageSpaces, vhdx виртуалок отдаем с него по smb3, файлопомойку тоже засовываем в vhdx. Из того что я натестил (ниже написал), скорости нам хватит. S2 pool легко переноситься на другие сервера/машины в случае отказа сервера, главное чтобы хватило sata разъемов. Надо покупать сервер и лицензию (и CAL?) на сервер.
4) Примерно тоже самое, что прошлый вариант, но делаем аппаратные рейд-LUNы, тома отдаем на другие сервера по iSCSI из под винды. Явных плюсов не вижу, минусы - тома будет сложно переносить.
Что бы вы выбрали? Какие ещё варианты есть? Что я не учёл? Может, вы знаете какие-то конкретные модели железок?
P.S. Я тут на обычном компе поставил WS2012R2, 4 SATA HDD диска в Storage Spaces, потестил - скорость чтения-записи упирается в гигабит сети, а не в диски.
В итоге я остановился на StarWind Virtual SAN Free и гиперконвергированном решении. Подергал в лабораторном окружении как мог (ресурсы ограничены), в целом работает круто. У StarWind очень хорошие гайды, покрывающие как раз мой случай.
Из минусов - жуткий оверхед для отказоустойчивости (фактически из 8(!!!) 4TB дисков получаем всего 8 терабайт места, при исползовании рейд10). Из плюсов - отлично работает на двух нодах, маштабируется без проблем до трёх. Может на моих маштабах синхронизироваться по гигабитному или паре гигабитных линков.
ScaleIO работает к примеру от 3+ нод, и очень хочет 10 гигабит...
Конвергентные решения рассматривайте. Чтобы гипервизоры и storage одними и теми же серверами обеспечивались. Из опенсорсных -- Ceph, из платных -- ScaleIO, ONTAP Select, StoreVirtual. ScaleIO можно разворачивать и крутить бесплатно, но техподдержки не будет.
NewAccount: Да, для S2D нужны лицензии на датацентр.
Ceph и ScaleIO не требуют приобретения. Хотя EMC строго предписывает, что забесплатно ScaleIO можно использовать только в тестовом окружении, но, как говорится, из любого правила... :-)
Есть ещё DataCore -- тоже крутая штука, но её без денег не дадут.
В общем, в вашей ситуации я бы привёл максимально сервера к единому знаменателю, добавил ещё один такой же, набил их все дисками и развернул ScaleIO.
Можно и Ceph, но там производительность будет меньше.