Задать вопрос
@Pantene742

Как лучше подсчитывать статистику больших таблиц?

Я фронтент разработчик но хотел бы сделать проект как full-stack. Использовать буду Angular + Nest + ????(some_data_base). Мне нужно будет выберать данные по определенным критериям(страна поставщика, порт, и другие) из таблицы где должно быть миллион или больше записей и вести расчеты с этими данными. Я так понимаю что нужно по максимуму использовать запроссы SQL для ведения этих расчетов при помощи базы не выберая данные. Для спецефических расчетов конечно понимаю что уже придется работать програмно. Но для банальной сумы по какому то полю думаю база самый идеальный вариант(подсчет средствами базы)
Подсчеты по определенным критериям поиска кешировать не удастся так как там будет множество фильтров(дата от до) в т.ч и это не Highload - деш для малого колличества юзеров.
* к примеру - нужно для юзера сделать Pie Chart из стран поставщиков за определенные период. И этих записей(поставок) может быть 100к за данный отрезок времени. Подсчитав по каждой стране суму поставок(тонны)
Я думаю что лучший вариант это выбрать PostgreSQL.
Подскажите пожалуйста как бы вы решили подобную задачу. Я на беке работал мало, самое сложное в SQL это были Join в запросах. Не знаю как лучше это сделать.
  • Вопрос задан
  • 166 просмотров
Подписаться 1 Простой Комментировать
Решения вопроса 1
sergey-gornostaev
@sergey-gornostaev
Седой и строгий
из таблицы где должно быть миллион или больше записей

Это не big data. Любая СУБД справится с такими объёмами, даже примитивный SQLite.
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы