Decadal, я применял и в больших командах и маленьких. Gitflow не панацея, но хорошая база для того чтобы его модифицировать для себя. Лично я добавил Merge Request'ы в develop и master, не во всех проектах использую тегирование и отказался от багфиксов.
Иван Филатов, MechanicZelenyy, я все прекрасно понял. Просто рассказал основу. Понятное дело что они шлют события на запущенный клиент, а как они это делают написал ранее - через события в облаке. Что вам не понятно?
gremlintv2, ну, если вам говорят сделать бесплатно то это похвально, наверное, что вы стараетесь, но вот компания явно несколько отбитая. Я про 10х сказал не просто так. Я считал уже как-то. Если вас нужна отказоустойчивость хотябы 99.9 то вам уже надо не мало так вложиться
synapse_people, и вас блокируют просто по тому что это все очень легко отследить со стороны сервиса и это (если владельцы не полные идиоты) нарушает правила пользования. Вы бы пообщались с сервисом и спросили как вы можете совместно закрыть вашу потребность
synapse_people, у меня складывается ощущение что вы проблему как-то не с того края решать стали. Вероятно про прокси вы правильно подумали, но только как-то перегибает палку. Зачем удалять cors для этой задачи если его надо грамотно настраивать? То же и с csp. Зачем вам 240 прокси? У вас не похоже что хайлоад, а значит что вас и одного прокси хватит(если мы про сервера).
Нарисуйте схему взаимодействия всей вашей архитектуры и приложите в задачу. И напишите обязательно для чего это вам. Возможно все гораздо проще чем вы думаете
synapse_people, прокси разбивает поток траффика на 2 части - между клиентом и прокси и прокси - ориджин. Вопрос только в том какие сертификаты вы собираетесь на него ставить)))
RealFireStorm, а у вас выбор только в решении, а не в безопасности. Если железка не умеет в безопасность то можете про это сразу и забыть. Разве что можно разорвать контур сохранения (у вас же присылаются данные в базу, а не наоборот?) Через RabbitMQ, ну и поставить валидацию жёстко входящих данных