Ceph + rbd + nfs + pacemaker. 4 ноды на ceph (118тб), две на rbd + nfs server + pacemaker, там же виртуалки kvm напрямую через librbd. Клиентами 15 серверов по nfs с сотней пользователей. Все ходит по инфинибанд qdr. Довольны, cephfs пока не планируем...
И да, не раздавайте rbd + nfs server с OSD-нод, оно виснет! Виртуалки c librbd и kvm на osd-нодах живут нормально, но мы от греха их убрали, да и памяти там на пределе (1 гиг на терабайт рекомендуется)
Да, до этого glusterfs пробовали, странное оно очень... А еще раньше жило gpfs покупное от интеллегентных бизнесмашин, но стоимость обновления на новую версию превысило все рамки разумного...