Нормально ли будет использовать сетевой интерфейс, по которому iscsi хранилище подсоединяется, еще и для ceph?
Стоит хранилище подключенное по iscsi к серверам. В каждом сервере по 2 двухпортовых карты на 10 гигабит - одна для виртуалок, вторая для подключения iscsi.
В старых серверах не было места для дополнительных дисков, а в новых - 6 свободных для sas ssd 2'5''.
Руки чешутся попробовать ceph, в используемом proxmox он вроде легко и просто настраивается. Причем по некоторым отзывам работает шустрее чем выделенная хранилка.
Правда так как все сетевые интерфейсы заняты, возник вопрос - нормально ли будет использовать сетевой интерфейс, по которому iscsi хранилище подсоединяется, еще и для ceph? Или лучше даже не пытаться?
Армянское Радио, нет, не улавливаю. 2 интерфейса из 4х в любом случае не планировалось использовать под диски, они для виртуалок. Не вижу проблемы в том, чтобы из оставшихся двух отдать для ceph только один.
Я считаю, что это плохая практика. Во-первых, цеф прожорлив, и кроме iscsi траффика у вас по той же сетке будет ходить и служебный трафик цефа, и трафик приложений. Это может вызвать "заторы". Но т.к. у вас по две 10gbit сетевые карты, почему бы не сделать бонд, поверх которого сделать виланы и каждому вилану назначить гарантированную пропускную способность?