@other_letter

Нафига вообще и надёжна ли СХД?

Я тут паралельно спрашивал про кластеры и решил часть вопроса выделить.
Суть того, что я ставлю под сомнение: надёжность СХД.

Что я подразумеваю под СХД: некое устройство, в которое вставляются диски и с сетевым интерфейсом. Интерфейс сейчас актуален оптический верно? Таким макаром я могу условнео хранить файлы в одном месте и иметь к ним доступ с другого. Ну, как файловый сервак.

В чём преимущества перед файловым серваком? Там тоже можно RAID сделать. Туда можно поставить оптику. Не понимаю.

И что важно... Надёжность. Имел честь общаться с саппортом разных вендоров и поставщиков. Обычно же как? Выходит что-то из строя в понедельник в разгар рабочего дня. Все жрут айтишников - работа стоит. Те в саппорт. Саппорт жуёт сопли и через несколько часов (это в лучшем случае, часто это дни - не вру) выдаёт " а нас нет райзера для замены, надо заказывать в США и ждать месяц". ВСё, приплыли.

Если из строя выходит файловый сервак - можно взять и переставить диски в другой. Ну, это так... Упрощённо... А если СХД? Часто этого не сделать - там вполне может быть хитро#бучий формат. Искать сервак с тем же интерфейсом дисков и перетыкать туда, переливая бэкапами?

В общем, коллеги... Я не понимаю. Подскажите, а?
  • Вопрос задан
  • 2329 просмотров
Пригласить эксперта
Ответы на вопрос 5
athacker
@athacker
СХД, как и многие другие вещи -- это дело такое... Если у вас возникает вопрос "а зачем нужны СХД", то значит, вам она точно не нужна :-)

В чём профит СХД -- это многократно зарезервированная система. У неё от двух до N контроллеров, каждая дисковая полка подключена минимум двумя путями, каждый диск подключен двумя путями (SAS-диск, конечно же), и на дисках используются механизмы типа T10-PI, гарантирующие целостность данных. Диски имеют пропатченные прошивки, логика работы этой прошивки такова: "лучше мы ложно зафейлим диск, чем случится реальный сбой, а мы его прошлёпаем и потеряем данные".

Также есть всякие функциональные штуки типа моментальных снапшотов, механизмов репликации (когда у вас два географически разнесённых тома имеют полностью одинаковое содержимое и синхронизируется практически в прямом эфире). СХД умеет tiered storage, когда система реализует кэш наиболее горячих данных на базе SSD-дисков или в RAM.

Но надо понимать, что сама СХД и расходники для неё будут стоить как крыло от F-35, и СХД нужно брать ТОЛЬКО с соответствующими сервисными контрактами. Без сервисного контракта -- любой сбой будет вам обходиться в копеечку, а время ремонта может исчисляться месяцами. С другой стороны, СХД довольно надёжны, и количество сбоев у них не очень велико. С третьей стороны, вендоры очень любят брать деньги за воздух. Например, у IBM есть такая практика -- если у вас истёк сервисный контракт, а вы его не продлили, а потом у вас случился сбой и вы решили купить сервисный контракт обратно, то вам в стоимость добавят стоимость годичного сервисного контракта в виде штрафа. Т. е. если вы решите спустя N лет приобрести сервисный контракт на 2 года, то по факту заплатите как за 3 года -- "1 год условно" вам выставят в виде штрафа. Этим грешит не только IBM, но и ещё ряд вендоров.

СХД нужна только для случаев, когда у вас критичные бизнес-процессы, и любая их остановка -- это настолько крупные потери, что стоимость этих потерь превышает стоимость СХД и сервисных контрактов на неё. В остальных случаях я бы рекомендовал самосборные хранилища и организацию процесса работы с ними так, чтобы минимизировать риски и последствия возможных сбоев.

Для чисто файловых хранилищ подойдёт, например, Windows Storage Spaces в конфигурации с двумя серверами и одной двух-контроллерной корзинкой DAS, подключенной к обоим серверам. Это гораздо дешевле СХД, а многие вещи такая конфигурация умеет -- нет единой точки отказа, умеет RAID на дисках, умеет условно tiered storage и умеет снапшоты средствами VSS на винде.

На фре тоже сейчас активно пилят High Availability в ctld. Полагаю, включат в 11.0, и можно будет строить отказоустойчивые iSCSI-хранилки на основе FreeBSD+ZVOL+ctld -- отличный вариант под хранение виртуалок. Причём ZFS тоже умеет снапшоты, вот если бы Veeam научился с ними работать, была б ваще чума... :-)
Ответ написан
Jump
@Jump Куратор тега Системное администрирование
Системный администратор со стажем.
В чём преимущества перед файловым серваком?
В том что это не файловый сервак.
Это совершенно другая вещь.

Файловый сервер предоставляет вам доступ к файловой системе с которой вы можете работать. Вы не можете изменить файловую систему, отформатировать диск, с файлами работает файловая система на файловом сервере.

СХД предоставляет вам доступ к устройству хранения информации - вы можете создавать разделы, форматировать под нужную файловую систему, т.е это работа с диском, а не с файловой системой.
Для системы это фактически жесткий диск. И на него можно поставить ОС.

Но это если я правильно понял о каком именно СХД вы говорите. Что-то вроде SAN.
А вообще СХД понятие растяжимое, бывают специфические системы которые заточены для хранения определенной информации, со встроенной дедупликацией и прочими плюшками.

Уточните что именно у вас за СХД и для чего она вам нужна.
А по поводу надежности - у всех она разная.
Ответ написан
Комментировать
MaxDukov
@MaxDukov
впишусь в проект как SRE/DevOps.
1. контракт с саппортом с нормальной скоростью реакции (минимум 8*5).
2. резервирование. если СХД у вас одна и больше данные развернуть негде - Вам не нужна СХД, начните с построения нормального процесса.

преимущество - более полное использование ресурсов. Тут как с виртуализацией. Есть некий объем ресурсов (процессоры/память/дисковое пространство). Когда к 1 ресурсу имеет доступ только 1 процесс/система - ресурсы используются менее эффективно, чем когда ресурс утилизируется несколькими процессами. В обоих случаях Вы должны иметь резерв, во втором это резерв общий.
В качестве плюшек - хорошая СХД умеет немало приятных вещей.
Ответ написан
Insaned
@Insaned
Disclaimer 1: Я намернно не читал других коментов, подозреваю что там написано совсем не то что сейчас скажу я.
Disclaimer 2: Я в своей жизни имел и имею некоторое отношение к самым разнообразным СХД. В том числе к хайэнд решениям.
Теперь суть:
Когда-то давно (когда сахар был слаще, а вода мокрее) человечество столкнулось с неразрешимой проблеммой: невозможность снять больше 100-200 iops с одного жесткого диска. Единственной возможностью снять большое количество iops - было увеличение количества жестких дисков. Поскольку в один сервер, пихать десятки, а то и сотни дисков нелогично - придумали пихать их в отдельную коробку и давать к ней доступ отдельным серверам. так каждый сервер потенциально имел возможность получить тысячи ёпсов. Другого логичного решения на тот момент просто не было. Потом концепция с большими коробочками из многих дисков обросла маркетинговым буллшитом (функционал, саппорт, отказоустойчивость итп...) Сейчас с появлением SSD всё это потеряло смысл, но корпорации, которые получают на продаже СХД очень большую прибыль - не готовы признаться в том, что продают воздух, поэтому продолжают его продавать.
Ответ написан
Diman89
@Diman89
имхо:
единственный плюс схд - корпуса/экспандеры

- я могу в любой сервак поставить несколько контроллеров/экспандеров, получив такую же избыточность
- на них же могу насоздавать разных массивов
-также могу применять ZFS
- настроить репликацию средствами ОС
- насчет tiried не в курсе

и не платить сотни тысяч/миллионы рублей за саппорт/поломку/апгрейд, т.к. в один прекрасный момент СХД будет снята с производства, а еще спустя некоторое время на складах кончится комплектуха к ней - и новая СХД, контракты, траты
в самопале же куда большая свобода выбора как в контроллерах (а обратную совместимость старших моделей с младшими вроде как делают), экспандерах, матерях/процах/памяти/БП, и да, винтах
и в случае проблем разобраться с ними будет куда проще

ps. в мечтах домашняя именно "мобильная дисковая полка", возможно в самопальном корпусе с покупным экспандером от "вендоров"
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы