Как реализуют парсинг большого количества данных и дальнейшее их хранение?
Здравствуйте! Занимаюсь на досуге баловством и создаю всякие свистоперделки. Захотелось разобраться как вообще парсят огромные массивы данных и как их хранят.
Есть сайт работающий через rest api и отдающий небольшое конечное количество данных в формате json. Получается что нужно сделать, например, 3000 последовательных запросов, чтоб получить полный объем необходимых данных. Финальный json в таком случае вероятно может весить очень много. В каком виде такие данные хранить и где. Как лучше и быстрее обрабатывать?