Задать вопрос
@Pantene742

Как лучше подсчитывать статистику больших таблиц?

Я фронтент разработчик но хотел бы сделать проект как full-stack. Использовать буду Angular + Nest + ????(some_data_base). Мне нужно будет выберать данные по определенным критериям(страна поставщика, порт, и другие) из таблицы где должно быть миллион или больше записей и вести расчеты с этими данными. Я так понимаю что нужно по максимуму использовать запроссы SQL для ведения этих расчетов при помощи базы не выберая данные. Для спецефических расчетов конечно понимаю что уже придется работать програмно. Но для банальной сумы по какому то полю думаю база самый идеальный вариант(подсчет средствами базы)
Подсчеты по определенным критериям поиска кешировать не удастся так как там будет множество фильтров(дата от до) в т.ч и это не Highload - деш для малого колличества юзеров.
* к примеру - нужно для юзера сделать Pie Chart из стран поставщиков за определенные период. И этих записей(поставок) может быть 100к за данный отрезок времени. Подсчитав по каждой стране суму поставок(тонны)
Я думаю что лучший вариант это выбрать PostgreSQL.
Подскажите пожалуйста как бы вы решили подобную задачу. Я на беке работал мало, самое сложное в SQL это были Join в запросах. Не знаю как лучше это сделать.
  • Вопрос задан
  • 170 просмотров
Подписаться 1 Простой Комментировать
Помогут разобраться в теме Все курсы
  • Нетология
    Веб-разработчик с нуля: профессия с выбором специализации
    14 месяцев
    Далее
  • Skillfactory
    Профессия Веб-разработчик
    12 месяцев
    Далее
  • Академия Eduson
    FullStack-разработчик: тариф PRO
    14 месяцев
    Далее
Решения вопроса 1
sergey-gornostaev
@sergey-gornostaev
Седой и строгий
из таблицы где должно быть миллион или больше записей

Это не big data. Любая СУБД справится с такими объёмами, даже примитивный SQLite.
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы