@smf002

Как правильнее обработать объемные данные с внешнего сервиса?

Добрый день.

Пытаюсь сделать несколько информационных страничек с отчетами к сервису, данные от которого получаю по API (к примеру список пользователей и их свойств с внешнего сервиса). И получается что для реализации любой функции (поиск по данным, пагинация вывода и т.п.) приходится каждый раз дергать API и получать довольно объемный кусок данных (запрос порядка 10-15 сек и будет увеличиваться со временем), что довольно тормозит работу с сайтом.
Приходит в голову при входе на сайт один раз дергать данные, запихивать их в БД и дальше уже с ней работать. Но тут возникают проблемы с удалением данных из БД после завершения работы с ними (что будет являться событием к удалению этих данных?).
Подскажите может есть другие способы решить подобную задачу?
  • Вопрос задан
  • 169 просмотров
Решения вопроса 1
@balamut108
Py
Я бы привязался к сессии.
Ответ написан
Пригласить эксперта
Ответы на вопрос 1
mututunus
@mututunus
Backend developer (Python, Golang)
Просто кешируйте данные.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы