Здравствуйте!
Кластер из трех нод под Proxmox 6.2-10.
Есть SAN shared storage MSA 2040 по FibreChannel подключены два HP DL380.
Им даны LUN к одному общему Volume. На каждом из HP установлен dlm-controld и lvmlockd. Через блокировки и gfs2 настроен общим доступ в реалтайме к единому разделу (на СХД).
По NFS расшарен этот раздел с одного из серверов HP.
Третья Нода доступа к СХД не имеет.
Задача: сделать переключение в случае отказа одного из серверов на второй HP сервер службы NFS.
Подскажите, Пожалуйста.
Денис Григоров, ваш GFS будет бессмысленным образом гонять данные по сети между узлами, вместо того, чтобы слать их только по FC.
Почитайте о работе OCFS2
Армянское Радио, то есть примерный алгоритм такой - создаю блочное устройство, настраиваю dlm и lvmlockd -> затем форматирую устройство в ocfs2 ... а дальше по инструкциям, что в интернете найду, так?
Денис Григоров, lvmlockd не нужен, блокировки делаются на уровне ФС.
Для работы ocfs2 нужно настроить pacemaker, STONITH и dlm.
Если предприятие будет плохо работать из-за криво настроенного кластера, приятного тоже будет мало.
Решил проблему keepalived.
Нужно было построить active/passive failover кластер с плавающим IP адресом. Keepalived подошел успешно. HeartBeat глючил и не соединялся с нодами.
Общее хранилище СХД по FC.
lvmlockd+dlm+sanlock
ФС -> gfs2
keepalived для резервирования IP адреса