Задать вопрос

Выбор DFS, какую начать смотреть?

Доброго дня!
Планируется внедрять для нужд компании ДФС, хочу спросить совета в выборе направления (ДФС много, у всех + и -, тестирование всех будет очень долгим) для изучения.
Требование к ФС:
- Распределенность на небольшом кол-ве нод (гиганта из 30 серверов строить не будем. 2, 4 максимум. Дисковый объем до 40Tb)
- Хотелось бы HA (читал, что MooseFS мастер переопределяется руками. Не критично, но тем не менее)
- Гарантированность записи данных на ноды
- Без split-brain :)

Пока присматриваюсь к MooseFS и Ceph, но хотел бы спросить совета у опытных товарищей, кто уже такие цели решал. на данный момент NFS + rsync что не очень удобно. Но работает :)
  • Вопрос задан
  • 3212 просмотров
Подписаться 3 Оценить 4 комментария
Пригласить эксперта
Ответы на вопрос 4
gbg
@gbg Куратор тега Linux
Любые ответы на любые вопросы
Используем Heartbeat-Pacemaker-OCFS2. Очень приятна возможность делать reflink - снимок.
С момента reflink содержимое файла запоминается, а для сохранения измененных блоков используется copy-on-write. То есть у нас бекап > 20 виртуалок делается за пару секунд.

Работают 4 узла поверх FibreChannel SAN HP-EVA6000.

Про split-brain - как кворум настроите, так и будет приниматься решение об отправке кластера в ребут при падении компонента.

Все компоненты есть в Opensuse 13.2 и настраиваются мастером "из коробки". Без ковыряния в конфигах.
Ответ написан
Supme
@Supme
Просто системный администратор
Ceph. Системы виртуализации не поддерживают, может пригодится в будущем. Fujitsu свои системы хранения на ней сейчас начали выпускать. Нет мастера.
Ответ написан
leahch
@leahch Куратор тега Linux
3D специалист. Dолго, Dорого, Dерьмово.
Ceph + rbd + nfs + pacemaker. 4 ноды на ceph (118тб), две на rbd + nfs server + pacemaker, там же виртуалки kvm напрямую через librbd. Клиентами 15 серверов по nfs с сотней пользователей. Все ходит по инфинибанд qdr. Довольны, cephfs пока не планируем...
И да, не раздавайте rbd + nfs server с OSD-нод, оно виснет! Виртуалки c librbd и kvm на osd-нодах живут нормально, но мы от греха их убрали, да и памяти там на пределе (1 гиг на терабайт рекомендуется)
Да, до этого glusterfs пробовали, странное оно очень... А еще раньше жило gpfs покупное от интеллегентных бизнесмашин, но стоимость обновления на новую версию превысило все рамки разумного...
Ответ написан
Комментировать
@abir_valg
Тут рассматривают GLUSTERFS vs HDFS . По результатам тестов GLUSTERFS лидировал.

А что про нестабильность Ceph ?

Мой вопрос по теме.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы