@NewAccount

Какое выбрать гетто-хранилище под vhdx?

Что есть сейчас.

Сервера:
Supermicro X10RDi Xeon x2 по 6 ядер, 64 GB RAM
Supermicro X10RDi Xeon x2 по 6 ядер, 64 GB RAM (процы слабее)
Supermicro X7DVL-3 Xeon x2 по 2 ядра, 16 GB RAM
На всех трёх WS2012R2 Standard.
Есть пачка разнотипных серверов по мелочи, все дохлые или вообще на десктопном железе. Про них в целом забываем. Сеть везде 1 гигабит. Коммутаторы управляемые HP.

На серверах - DHCP, 2 КД, DNS, AD RMS. Кое какой вспомгательный софт, на одном стоит гипервизор и там кое-какие виртуалки запущены - zabbix, redmine. Сильной нагрузки на сервера нет, самое прожорливое - файловый сервер, на нем много шифруется-расшифруется cad-файлов. Объем места под файл сервер - 3 терабайта с запасом на вырост.

Всем этим стало сложно управлять, сложно добавлять новые сервисы, никакой изоляции - это не дело когда на КД мы ставим условно говоря софт по конвертации PDF и принт сервер. Я точно знаю что надо внедрять виртуализацию :)

Теперь, вопрос.

Что надо:
Надо бюджетное (вообще максимально бюджетное) хранилище под виртуалки, и под единую файловую помойку (сейчас файловая помойка размазана по всем серверам). Опции, которые я вижу-понимаю:
1) строим iSCSI SAN. Теоретически, коммутаторы нам не нужны новые, надо купить полку, диски. В чём проблемы: один LUN надо цеплять за один сервер, то есть в принципе придется под виртуалки делать два LUN + один под файлы. Если теряем полку (контроллер или питание) то внятного плана восстановления нет. Две полки бюджет не тянет, адназначна. Да и даже одна - это дорого. Из плюсов - я точно знаю что это работает и что RAID10 LUNа по гигабиту будет достаточно по скорости (из опыта и текущей нагрузки).
2) Используем DAS полку, цепляем к одному или двум серверам и строим массив из StorageSpaces. Минус - надо покупать HBA, саму полку. Полка получается опять-таки spf без внятного плана что дальше с ней делать. По баблу не сильно отличается от решения с iSCSI.
3) Покупаем самый дешёвый 2U сервер с большим количеством корзин под диски (от 12ти), строим из него файл сервер из StorageSpaces, vhdx виртуалок отдаем с него по smb3, файлопомойку тоже засовываем в vhdx. Из того что я натестил (ниже написал), скорости нам хватит. S2 pool легко переноситься на другие сервера/машины в случае отказа сервера, главное чтобы хватило sata разъемов. Надо покупать сервер и лицензию (и CAL?) на сервер.
4) Примерно тоже самое, что прошлый вариант, но делаем аппаратные рейд-LUNы, тома отдаем на другие сервера по iSCSI из под винды. Явных плюсов не вижу, минусы - тома будет сложно переносить.

Что бы вы выбрали? Какие ещё варианты есть? Что я не учёл? Может, вы знаете какие-то конкретные модели железок?

P.S. Я тут на обычном компе поставил WS2012R2, 4 SATA HDD диска в Storage Spaces, потестил - скорость чтения-записи упирается в гигабит сети, а не в диски.
  • Вопрос задан
  • 235 просмотров
Пригласить эксперта
Ответы на вопрос 2
athacker
@athacker
Конвергентные решения рассматривайте. Чтобы гипервизоры и storage одними и теми же серверами обеспечивались. Из опенсорсных -- Ceph, из платных -- ScaleIO, ONTAP Select, StoreVirtual. ScaleIO можно разворачивать и крутить бесплатно, но техподдержки не будет.
Ответ написан
@NewAccount Автор вопроса
Я об этом думал. А как вы это видите с таким количеством серверов?

Ну будет у меня предположим 3 сервера, на каждом 8 дисков. Теряем сервер - теряем треть "массива". Неужели есть решения которые такое переживут?
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы
22 нояб. 2024, в 13:15
3000 руб./за проект
22 нояб. 2024, в 12:53
25000 руб./за проект