@vetsmen

Как реализовать сбор большого объема данных?

Как правильно реализовать архитектуру для сбора большого объема статистики?
Нужно будет выполнять порядка 50.000 запросов на сторонний API раз в 15 минут, брать данные и записывать их в БД.
Сможет ли вообще нода на одном сервере справиться с этим? Какое нужно железо для такого объема? Как реализовать саму логику сборщика сиатистики (как я понимаю, поставить setInterval на 15минут и циклом проходить по данным и делать запрос плохая идея)? Справится ли с такой нагрузкой mysql без масштабирования?
  • Вопрос задан
  • 295 просмотров
Пригласить эксперта
Ответы на вопрос 2
xmoonlight
@xmoonlight
https://sitecoder.blogspot.com
50000/(15*60) ~ 56 запросов в секунду на сторонний API!
А мужики-то знают?!)
Ответ написан
Реализовать логику так чтобы не приходилось кидать 50к запросов раз в 15 минут, а так по факту делать очереди и добавлять задачи на сбор информации, поскольку это внешний сервис и его работоспособность нам неведома, то очереди помогут. Да и есть вероятность того, что сбор не отработал и тут по таймеру мы вновь запускаем новый, ох и треш тут может начаться если не учитывать конфл. запросы. Вот инструмент для очередей (redis) https://github.com/Automattic/kue
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы