Задать вопрос
@Leshiy66613

Как реализуют парсинг большого количества данных и дальнейшее их хранение?

Здравствуйте! Занимаюсь на досуге баловством и создаю всякие свистоперделки. Захотелось разобраться как вообще парсят огромные массивы данных и как их хранят.
Есть сайт работающий через rest api и отдающий небольшое конечное количество данных в формате json. Получается что нужно сделать, например, 3000 последовательных запросов, чтоб получить полный объем необходимых данных. Финальный json в таком случае вероятно может весить очень много. В каком виде такие данные хранить и где. Как лучше и быстрее обрабатывать?
  • Вопрос задан
  • 187 просмотров
Подписаться 1 Простой 2 комментария
Помогут разобраться в теме Все курсы
  • Stepik
    4в1—Парсинг, Асинхронность, Многопоточность, Многопроцессорность
    2 месяца
    Далее
  • Хекслет
    Фронтенд-разработчик
    10 месяцев
    Далее
  • Skillfactory
    Профессия Python-разработчик PRO
    12 месяцев
    Далее
Пригласить эксперта
Ответы на вопрос 2
kawabanga
@kawabanga
так не храните. Сливайте данные с запросов в базу каждый 100 запросов к примеру.
Научиться парсингу — с чего начать?
Ответ написан
Комментировать
@procode
Разработчик
Смотря что... смотря с кем.. )))

Общее решение таково: разобрать json и запихнуть в mysql и делать потом всё что душе угодно
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы