Какой фреймворк подойдет для парсинга (скрапинга) сайта?
В данный момент у нас такой стек - Front (Vue js) Back (Laravel).
Сейчас нам потребовалось написать скрипт (мини-приложение) для парсинга данных сайта (Сам сайт довольно простой). Мы выбираем на каком фреймворки стоит выбрать для данной задачи. Требования: простой, быстрый, в будущем масштабируемый
Сейчас стоит выбор между Python (scrapy, pyspider), Node js ( Как вариант обычный request + cheerio ), так-же рассматривали варианты на Go, но у нас нет опыта в нем вообще никакого... Нужен ваш совет
Скрапи - комбайн с интеграцией с джанго.
Нет джанго, нет потребности в полномасштабном парсинге нескольких десятков источников, нет питона - нет смысла его использовать
Ну кроме как хотелка
Все равно хотите на питоне писать - lxml.
requests если требуется сложное взаимодействие с донором