Привет! Имеются у меня три сервера с esxi, в каждом набиты диски. Вот, думаю пора покупать СХД. По FC слишком дорого выходит..
Посоветуйте, какую СХД купить, с аппаратным iSCSI, Располагаться на ней будут MS SQL большие базы (500GB) базы exchange server 100GB и файлопомойка с redirected folders.
Желательно для дисков 3.5 SAS/SATA не менее 8 штук..
Иван: ну а вы что хотели? 2016 год на дворе. в нынешних реалиях это адекватная цена на серверное оборудование. если найдете вариант выгоднее при сопоставимом с IBM качестве и отказоустойчивости - расскажите :) мне тоже будет интересно :)
SyavaSyava: Под отказоустойчивостью имеется ввиду дублирование компонентов в данном случае - в IBM storewize 3700 два контроллера, два БП, двухпортовые HDD, почти что действительно два по цене... Двух)
Если встаёт вопрос ограниченности бюджета, то лучше самосбор. FreeBSD+ZFS, плюс SSD-диск под L2ARC-кэш. Хотя это зависит от типа нагрузки, если будет в основном запись данных и мало чтения, то можно обойтись и без L2ARC.
Иван: Вот заодно и разберётесь :-) Логика у фри куда как более прозрачная, чем у линуксов.
На самом деле, каких-то системно-специфичных вещей при решении вашей задачи там не будет. Нужно будет немножко почитать про ZFS, про типы дисковых пулов (mirror, raidz/raidz2/raidz3) и ZVOL'ы.
iSCSI-target на фре реализуется с помощью утилиты ctld. Конфиг ctld -- около 15 строчек, большинство из них можно брать прямо из примера в FreeBSD handbook.
СХД, кстати (если под СХД понимать именно СХД, а не те базовые девайсы, которые предлагает QNAP/Synology/D-link) -- штука ни фига не проще FreeBSD. Все эти вещи -- компрессия на лету, дедупликация, снапшоты, зеркалирование на уровне томов, зеркалирование на уровне отдельных СХД, volume virtualization -- чтобы всё это вкурить, нужно тоже потратить порядком времени. Ситуация усугубляется тем, что документацию ещё придётся поискать, так как, например, у IBM по хранилке v7000 чуть ли не с десяток довольно толстых книг (порядка 500-600 страниц), и какая из них начинает объяснений всей этой фигни с азов -- можно выяснить только ознакомившись с большинством из них :-)
И маркетингового трэша там вагоны, когда одни и те же вещи, которые имеют, в общем-то, устоявшиеся названия, в документации к разным СХД называются по-разному. У одного вендора, например, слово volume означает одно, у другого производителя это же слово будет означать совсем другое. И только после вдумчивого курения документации от железок разных вендоров можно, например, понять, что то, что IBM называет "flashcopy", а Хуавей -- "hypersnap" -- это одно и тоже, это технология снапшотов.
Так что какое бы решение вы не приняли -- покупать СХД или делать всё самому на базе FreeBSD+ZFS -- на ознакомление с технологией придётся потратить порядочно времени.
Если у вас три хоста с ESX, и в каждом уже есть диски -- рассмотрите варианты использования софтверных СХД для построения конвергентного решения -- т.е. когда у вас хосты являются и гипервизорами и одновременно распределённым хранилищем с резервированием информации. Как вариант -- EMC ScaleIO, оно представляет собой набор виртуальных машин (по одной на каждый хост) и специальный драйвер для ESXi, который умеет работать с хранилищем ScaleIO. После его установки ESXi начинает видеть хранилище как FC LUN. Но там есть косячок -- по сути, суммарный объём хранилища в вашем случае надо делить на три :-) Т. е. если у вас 3 сервера, и на каждом дисков в сумме на 1 Тб (т.е. всего 3 Тб), то в ScaleIO вы получите всего 1Тб пространства. Но зато это будет реально надёжное хранилище, и при выходе из строя одного хоста данные не будут потеряны, и это будет ОБЩЕЕ хранилище, т.е. все хосты будут видеть все виртуальные машины.
athacker: Тут дело такое - или инфраструктура на windows, или на UNIX, или же два администратора. Я еще не встречал администратора, который одинаково хорошо шарил бы и в том и в этом)
Иван: Ну, можете на меня посмотреть :-) Я работал и с виндой, и с фрёй одновременно. Сейчас больше фря, конечно, но это специфика конкретного места работы. Буду работать в другом месте -- возможно, там винды будет гораздо больше юниксов :-)
А инфраструктура должна быть на том, что лучше подходит для конкретных задач.
Кстати, Storage Spaces и Scale-Out File server -- это виндовые технологии, и тоже вполне ничего себе штуки. Единственный косяк -- ESXi не сможет ими пользоваться в полном объёме :-) Если бы у вас гипервизоры были на Hyper-V, тогда да -- там можно виртуалки складывать на SMB3-шарах, и получать все прелести как Storage Spaces, так и SOFS. А на ESXi-ах -- только Storage Spaces по NFS-шарам.
athacker, если хотите программно-определяемую СХД в продакшене, посмотрите в сторону Open-E. ну или на инглише, если свободно владеете... их флагман JovianDSS как раз на zfs со всеми вытекающими плюшками. Или пилите руками, без высокой доступности это вполне возможно.
А если бюджет позволяет - посмотри в сторону семейства NetApp E2700 на 12 дисков или, если нужен не только блочный доступ - на линейку NetApp FAS 2500. Народ вангует в течение ближайшего полугода выход новых линеек на замену NetApp E2700 и FAS 2500, как следствие оные должны заметно подешеветь в распродажах.
Относительно дешевой блочной СХД будет и семейство HP MSA2000, но тот же NetApp E2700 заметно круче по производительности и возможностям.
ЗЫ Ох сейчас забросают меня грязью...
iSCSI для БД, ЕСЛИ много транзакций - сомнительное удовольствие, слишком велико latency у Ethernet. По опыту , было такое и даже 10GB в качестве теста не очень помогали. Перешли на FC 8Gb - вздохнули. СХД самосбор на Supermicro, 24 SAS диска, Qlogic 2652, FC таргет мастерит Ubuntu.