Задать вопрос
@freeskateonly
Краток

Каким инструментарием воспользоваться для постоянного сбора данных и мониторинга с большого количества сайтов?

Необходимо настроить сервис собирающий внутри себя актуальные данные с сторонних сайтов. Все данные закрыты от публичного доступа и находяться в личном аккаунте. Для получения этих данных необходима авторизация. Так-как сайтов много, то сбор нужно как-то автоматизировать, при том что очень важна актуальность данных.

Вот и возникает ступор при мысли о реализации задачи. Как и каким мечом можно побороть данный вопрос? =)
  • Вопрос задан
  • 279 просмотров
Подписаться 2 Оценить Комментировать
Помогут разобраться в теме Все курсы
  • OTUS
    iOS Developer
    12 месяцев
    Далее
  • Stepik
    Парсинг на Python для начинающих
    2 недели
    Далее
  • AndroidSprint
    Попробуйте себя в роли разработчика за 10 дней
    1 неделя
    Далее
Пригласить эксперта
Ответы на вопрос 2
xmoonlight
@xmoonlight
https://sitecoder.blogspot.com
обычно скрипты curl или casper.js
Ответ написан
Комментировать
targumon
@targumon
Напрмер, perl с такими модулями:
WWW::Mechanize для серфа по сайту
Mojo::DOM для парсинга html
AnyEvent если понадобится асинхронность
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы