Есть некая платформа которая используется для разработчиков и продакшена. Версии пакетов кастомные + используются различные репозитории. По требования безопасности сами машины не имеют доступа наружу (Интернет) и во внутрь - к серверам с "репозиторием"/артефактами в частности. Весь провижн и деплой идёт с некой машины.
Мне нужно понять как на количество подключений, на количество передаваемых данных и на скорость get/set данных реагирует сервер api. Что бы понять какие есть ограничения для одного экземпляра. При этом сервер api работает в рядом с гипервизором(на хосте), в то время как основную нагрузку делают контейнеры.
Кирилл: "а разница в чем ?" Системы мониторинга - системы наблюдения в которых подключаешь метрики и следишь за параметрами нормированными по времени. Системы тестирования и сравнения - отдают информацию удобоваримую для сравнения: например HDD Monitor vs HDD Scan, HWMonitor vs 3DMark.
Семен: Худший вариант master-slave репликация. Приложение возможно умеет читать с слейвов и писать на мастер.
Я смотрю в сторону multi-master, но меня беспокоит: непредсказуемые задержки от 30мс и возможно потери связи - неоднократно наблюдал краткосрочные локальные проблемы связанности, когда из одного датацентра нельзя подключиться к второму, но можно к третьему.
Потому, что я использую Travis CI + Docker образы Suse/CentOS/etc и там проблемы: stackoverflow.com/questions/32473257/test-ansible-... . С другой Даже если починю Докер+SystemD, то еще нужно тестировать на *BSD. С другой - легче арендовать дешовый сервер и тесты на нём гонять =) А дешёвый - это и openVZ в том числе.
Дмитрий: Я пишу Cisco-like CLI, который нужно тестировать =) Например то, что help будет возвращать то что нужно, а не None. Такое нужно когда один и тот же код разные люди поддерживают.