Доступная отказоустойчивая СХД возможно ли?

Здравствуйте товарищи!

В общем вопрос в следующем:

Необходимо хранить порядка 40Тб данных, данные эти на 90% состоят из видео\фото файлов, остальное документы - шары подразделений, шары профилей пользователей или бекапов профилей. Обязательно нужна высокая доступность. Доступ файловый smb 2.0 и 3.0, возможно в перспективе понадобится блочный доступ iscsi. Снепшоты и дедупликация. Кластер из 2-4 нод, ноды с резервируемыми блоками питания, по одному процессору, 10 GbE интерконнект. И самое главное цена вопроса, открытых цен на деревянные СХД нет, мильен бюджета максимум.

Есть ли реальная возможность сделать отказоустойчивую систему хранения данных на недорогих компонентах, таких как бытовые но надежные sata hdd\ssd, руководствуясь данными по процентам отказа.

Не используя деревянных контроллеров raid, хочется получить программно определяемое хранилище (SDS, Software-defined storage). Желательна штатная отработка отказа диска\ноды автоматическая ребалансировка. Поддержка тиринга\кеширования на ssd, дедупликация. Не используя дедушкин и энтерпрайзный FC. Не используя sas диски.

Пока я вижу вариант связки из 3-4 SSG-5018D8-AR12L, 4 x ssd 400Gb, 12 x hdd 3Tb. 1-2 10GbE коммутатора(netgear\dlink\tp-link). В качестве операционной системы и управляющего программного обеспечения: Windows Server 2016 - Storage Spaces Direct.

Еще один вариант который кажется очень даже суровым это Hyper-V в связке с ScaleIO или Starwind

Storage Spaces Direct - хотелось бы заменить на Nutanix CE (куча плюшек, но существует ограничение на диски :(, его как то обходят но эти методы на просторах интернетов я не нашел), или Nexenta, или ScaleIO, StarWind, или что то еще за адекватные деньги чего я не знаю.

Возможно сгодится и деревянное СХД модных вендоров, но оно должно быть с файловым доступом, так как ставить отдельные файлеры дополнительные затраты.

Плюсом будет если поверх хостов можно будет использовать легкие виртуальные машины.

Самый крайний вариант это Dell PE 730XD набитый по полной дисками, с бекапом на копеечный сторадж собраный на коленке с кучей дисков.

Есть ли смысл в зеркале\кластере из 2-4 Synology, Qnap и подобного? Кто-нибудь использовал такое? Очень смущает отсутствие резервируемых блоков питания. Из практики Promise ns6700 две штуки накрылись.

Актуальные и модные штуки вроде iops да latency - не очень актуальны, только хардкор только 24/7 доступность
  • Вопрос задан
  • 3058 просмотров
Пригласить эксперта
Ответы на вопрос 5
athacker
@athacker
Ну, сами подумайте, что бы вы ответили человеку, который заявляет: хочу промышленную СХД с обвязкой (коммутаторы) и дисками собрать на коленке, бюджет на всё в миллион рублей (~17000$).

Тут уж, дорогой друг, либо коленки, либо промышленная СХД (особенно учитывая хотелки в виде тиринга, дедупликации, снапшотов и прочего).

1) SATA-диски под большой нагрузкой будут грешить silent errors (т.е. искажениями данных, которые никто не заметит, пока не будет поздно (например, при ребилде массива). Поэтому софт должен будет уметь эти ошибки выявлять в оффлайне (как scrub в ZFS или background device scanner у ScaleIO).

2) Цены на "деревянные" (что бы это не означало) СХД в интернетах таки есть. Например, тут: stss.ru/products.html

3) Если собираетесь покупать ScaleIO, то там адекватных денег не ждите. Запрашивали несколько месяцев назад цены -- 44k$ за 50 Тб СЫРОЙ ёмкости. Когда соберёте массив на 4-х нодах, получите меньше 20 Тб реальной ёмкости. ScaleIO можно юзать и за так, но про поддержку забудьте. Если у вас реально суровый прод, то без поддержки -- это искать прилючения на свои нижне-задне-спинные мышцы.

4) Дедупликация-то вам нахрена? Учитывая массив данных, который вы собираетесь там хранить (документы/фотки/видео), профит от дедупликации будет чуть меньше, чем никакого, а вот нагрузка на память и потенциальные глюки будут ого-го.
Ответ написан
Jump
@Jump
Системный администратор со стажем.
Есть ли реальная возможность сделать отказоустойчивую систему хранения данных на недорогих компонентах, таких как бытовые но надежные sata hdd\ssd, руководствуясь данными по процентам отказа.
Разумеется такая возможность есть, и эта возможность никак не связана с данными по процентам отказа. В данном контексте это бесполезная информация.

По поводу остального - вы уж определитесь что вам нужно отказоустойчивая система или все эти перечисленные вами плюшки. И правильно расставьте приоритеты.
А так на данный момент просто не понятно что вам нужно.

Если хочется делать на бытовом железе - все плюшки либо реализовывать самому изобретая велосипеды и подпирая их костылями, либо отказываться от них.

Для начала нужно составить список требований к системе в порядке убывания их важности, четко определиться что конкретно и для чего нужно, а уж потом размышлять про дедупликацию и особенности файловых систем
Ответ написан
@5tgb5tgb
Посмотрите в сторону Netapp FAS на ёмких NL-SAS дисках. Например Netapp FAS 2554 с дисками по 4 ТБ
Ответ написан
pred8or
@pred8or
Не используя деревянных контроллеров raid, хочется получить программно определяемое хранилище (SDS, Software-defined storage)


Если посмотреть определение SDS в википедии, да почитать другие источники, то можно узнать, что этот термин - такой же маркетинговый булшит, как и всё остальное про SD*. По сути - абстракция и виртуализация имеющихся аппаратных (деревянных?) хранилищ. Тех же SAN или NAS.

Так что определитесь с тем что на самом деле нужно, а дальше - всё решаемо в рамках достаточно скромных бюджетов. Без использования EMC или, к примеру, IBM.
Ответ написан
Fiasco
@Fiasco
вот такую статейку читали?
https://habrahabr.ru/post/323114/
или купить безлимитный старвинд на две ноды за ~500к рублей, на нем строить windows-кластер, который может все желаемое, как раз на миллион наверно и получится
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы