Как правильнее обработать объемные данные с внешнего сервиса?
Добрый день.
Пытаюсь сделать несколько информационных страничек с отчетами к сервису, данные от которого получаю по API (к примеру список пользователей и их свойств с внешнего сервиса). И получается что для реализации любой функции (поиск по данным, пагинация вывода и т.п.) приходится каждый раз дергать API и получать довольно объемный кусок данных (запрос порядка 10-15 сек и будет увеличиваться со временем), что довольно тормозит работу с сайтом.
Приходит в голову при входе на сайт один раз дергать данные, запихивать их в БД и дальше уже с ней работать. Но тут возникают проблемы с удалением данных из БД после завершения работы с ними (что будет являться событием к удалению этих данных?).
Подскажите может есть другие способы решить подобную задачу?