В дополнение к Cloudwatch Logs (надежно, но интерфейс специфический):
- если привыкли к ELK, то можно использовать Logz.io или другой облачный сервис - у большинства есть бесплатный план, если хотите сэкономить
- из Cloudwatch Logs можно пересылать в AWS Elacticsearch, там будет и Kibana
Универсальный ответ - "зависит".
Нужно сделать PoC, посмотреть на запросы, оптимизировать их. Потом оценить траффик в продакшен и сделать load test. По следам это оптимизировать и масштабировать.
С точки зрения инфраструктуры - если много reads, то slave[s] очень помогут.
С точки зрения архитектуры - засылка задач в очередь и вытаскивание из нее помогают сгладить пики.
Я не работал с GitLab CI/CD и symfony, но все же выскажусь :-)
Во-первых, проверьте какая часть занимает больше времени, ее и начинайте оптимизировать.
Во-вторых, FE и BE можно строить и деплоить параллельно.
Спросите в поддержке Altas. Я не уверен, что можно корректно проксировать, так как если мы укажем три сервера, апликация не будет знать, кто из них мастер.
Это просто рвет мне мозг. Бекап - одна из самых распространенных операций, как так вышло что нет решения с одной кнопкой? Не верю.
Абсолютно согласен. Увы, даже я с 25 годами опыта в Юникс/Линукс до сих пор удивляюсь.
Я думаю сегодня просто маркет для бэкапа физической машины очень мал.
Когда-то Акронис работал с Линукс. Сегодня - как уже сказали, посмотрите на https://www.veeam.com/linux-backup-free.html.