@sergey_privacy
Админ со стажем, начинающий DevOps

Как победить ошибку Ceph «OSD count 2 < osd_pool_default_size 3»?

Всем привет!
Подскажите, плиз, по применению параметров конфига к кластеру Ceph.
Достался мне "в наследство" кластер, в котором то ли когда то было 3 ноды osd, потом одна исчезла, то ли изначально было их две.
Параметр osd_pool_default_size в конфиге отсутствовал, использовалось значение по умолчанию.
На мониторах, ЕСТЕСТВЕННО, состояние варнинга:
OSD count 2 < osd_pool_default_size 3

На некоторых пулах стояли аналогичные параметры. Изменил на пулах. Добавил в конфиги чтобы на время убрать ошибку (сейчас нет третьей тачки под рукой, буду заказывать, настраивать).

osd_pool_default_size = 2
osd_pool_default_min_size = 1


Рестартанул службу на всех мониторах, команда "ceph config show xxx.xxx" показывает то ,что нужно, а команда "ceph -s" говорит, что проблема осталась

OSD count 2 < osd_pool_default_size 3

Что за фигня и как ее побороть?
  • Вопрос задан
  • 368 просмотров
Пригласить эксперта
Ответы на вопрос 2
leahch
@leahch Куратор тега Linux
3D специалист. Dолго, Dорого, Dерьмово.
Добавить OSD на ноды, и добавить ноды, если не хватсет.
Ответ написан
@kanewi11
Если на всех узлах (нодах) параметр osd_pool_default_size установлен правильно, то для решения проблемы необходимо перезапустить активный менеджер. У меня возникала такая же проблема.

Необходимо выполнить следующие действия:
Ceph -> Monitor -> Manager, после чего менеджер у которого статус active кидайте в рестарт.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы